Open LLM集中迸发的一周 卷疯了!
开源大模型畛域繁华特殊的一周,各种开源,PaperAgent启动了概括: 端侧、Code、RAG、Agent、Reflection(反思纠正)、MoE ,你关注的都在这里了。
Reflection Llama-3.1-70B 开源
ReflectionLlama-3.1 70B是环球上顶尖的Open LLM,经过反思微调技术( Reflection-Tuning )训练,能够检测并纠正推理失误,具备很高的热度,Hugging Face抢手排行Top1。
Agent中须要LLM具备很强的推理布局才干 ,这种反思技术训练的模型能否很契合Agent尼?有待进一步验证
从试验对结果看,是击败GPT-4o、Claude 3.5 Sonnet,遥遥上游的,更强405B版本 估量下周推出,十分等候
面壁小钢炮MiniCPM 3.0开源
面壁智能开源新一代片面开挂的小钢炮,4B规模到达ChatGPT级才干:
零一万物Yi-Coder系列模型开源
Yi-Coder 有两种规模——
15亿和90亿参数
——提供基础版和聊天版,旨在成功高效的推理和灵敏的训练。值得留意的是,Yi-Coder-9B 在 Yi-9B 的基础上,额外参与了2.4万亿高品质的标志,这些标志精心挑选自 GitHub 上的代码库级别的代码语料库,以及从 CommonCrawl 挑选出的与代码关系的数据。
Yi-Coder 的关键个性包含:
DeepSeek-V2.5版本颁布
DeepSeek-V2.5 是一个更新版本,它联合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。这个新模型整合了前两个版本的通用和编码才干。
DeepSeek-V2.5 更好地合乎人类的偏好,并在多个方面启动了优化,包含写作和指令遵照:
首个齐全开源MoE大模型:OLMoE
OLMoE-1B-7B 是一个具备10亿生动参数和70亿总参数的专家混合(
Mixture-of-Experts
)大型言语模型(LLM),于
2024年9月(0924)颁布
。它在老本相似(10亿)的模型中提供了最先进的性能,并且与像 Llama2-13B 这样的更大模型具备竞争力。
OLMoE 是100%开源的
。
开明 MoE 和密集型言语模型(LMs)的性能、老本和开明水平
checkpoints:https://arxiv.org/pdf/2409.02060code :::