实测腾讯开源的Hunyuan

当天突然发现腾讯开源混元大模型,十分震惊,腾讯也来挤开源赛道了,只能说大模型开源越来越冷落了。

这次开源的重要是MoE模型, 有Base模型和Instruct模型,总参数量389B,激活参数52B,允许最大高低文256K。

Github:https://arxiv.org/pdf/2411.02265HF:

由于期间相关,还没细心的阅读paper,扫了一眼目的,不知道为啥没跟Qwen2.5-72B比拟,然而我独自看了几个榜单,是要好一些的。

Base模型

Instruct模型

由于自己 没有16张H800 ,但又像测试一下腾讯新开源的Hunyuan-Large,因此 在官网提供huggingface spaces上启动的测试


说明:了解了用意,然而输入结果不正确,没有将一切字母反上来。

说明:结果正确。

说明:结果失误,觉得还是tokenizer的疑问,但很奇异为啥没独自提升一下。

说明:结果正确

说明:熟蚝。。。。。。。

说明:稀水。。。。。。。。

说明:没了解,小红是女生,字母说呢,正当也不正当,反正我觉得小红是女生。

说明:结果正确

说明:依照我的推理是对的,然而不应该依照理想常识回答嘛。

就是测试了一下,觉得没有其他人说的那么强。不过也是如今开源最大的MoE模型了吧。

本文转载自​​,作者:

您可能还会对下面的文章感兴趣: