首页>TAG列表
实测腾讯开源的Hunyuan

实测腾讯开源的Hunyuan

当天突然发现腾讯开源混元大模型,十分震惊,腾讯也来挤开源赛道了,只能说大模型开源越来越冷落了,这次开源的重要是MoE模型,有Base模型和Instruct模型,总参数量389B,激活参数52B,允许最...

将端侧大模型启动究竟

将端侧大模型启动究竟

面壁不时都在做端侧大模型,之前有文本系列MiniCPM,2B模型,还有多模态系列的MiniCPM,V系列模型,当天又开源了MiniCPM3,4B模型,真是端侧一路走到低,这次MiniCPM3,4B也是...

LLM通常系列

LLM通常系列

通过了数据搜集、挑选、去重,马上就可以开局训练试验了,然而在试验之前,咱们还须要先失掉一个言语模型的基石,分词器,Tokenizer,Tokenizer的作用是对一条文本数据启动切分、词表映射,失掉这...

11B和90B多模态模型 Llama3.2开源 Meta颁布1B和3B端侧模型

11B和90B多模态模型 Llama3.2开源 Meta颁布1B和3B端侧模型

早上起来发现,MetaAI又开源模型,文本模型开源了端侧小模型1B和3B模型,也是初次开源了多模态大模型11B和90B两个版本;同时还开源了一个LlamaStack名目,Blog,https,ai.m...

浅谈

浅谈

当天给大家带来知乎朋友@ybq一篇对于如何启动畛域模型训练的文章,关键内容是对post,pretrain阶段启动剖析,后续的Alignment阶段就先不提了,留意好老生常谈的,数据品质,和,数据多样性...

预料之外的成果 GLM4模型开源 预料之中的尺寸

预料之外的成果 GLM4模型开源 预料之中的尺寸

当天智谱开了GLM,4,9B的模型,不是6B,是9B,一共开源了四个模型,Base版本模型,GLM,4,9B,、Chat版本模型,GLM,4,9B,Chat和GLM,4,9B,Chat,1M,和多模态...