实测腾讯开源的Hunyuan
当天突然发现腾讯开源混元大模型,十分震惊,腾讯也来挤开源赛道了,只能说大模型开源越来越冷落了。
这次开源的重要是MoE模型, 有Base模型和Instruct模型,总参数量389B,激活参数52B,允许最大高低文256K。
Github:https://arxiv.org/pdf/2411.02265HF:
由于期间相关,还没细心的阅读paper,扫了一眼目的,不知道为啥没跟Qwen2.5-72B比拟,然而我独自看了几个榜单,是要好一些的。
Base模型
Instruct模型
由于自己
没有16张H800
,但又像测试一下腾讯新开源的Hunyuan-Large,因此
在官网提供huggingface spaces上启动的测试
。
说明:了解了用意,然而输入结果不正确,没有将一切字母反上来。
说明:结果正确。
说明:结果失误,觉得还是tokenizer的疑问,但很奇异为啥没独自提升一下。
说明:结果正确
说明:熟蚝。。。。。。。
说明:稀水。。。。。。。。
说明:没了解,小红是女生,字母说呢,正当也不正当,反正我觉得小红是女生。
说明:结果正确
说明:依照我的推理是对的,然而不应该依照理想常识回答嘛。
就是测试了一下,觉得没有其他人说的那么强。不过也是如今开源最大的MoE模型了吧。
本文转载自,作者: