Open LLM集中迸发的一周 卷疯了!

开源大模型畛域繁华特殊的一周,各种开源,PaperAgent启动了概括: 端侧、Code、RAG、Agent、Reflection(反思纠正)、MoE ,你关注的都在这里了。

Reflection Llama-3.1-70B 开源

ReflectionLlama-3.1 70B是环球上顶尖的Open LLM,经过反思微调技术( Reflection-Tuning )训练,能够检测并纠正推理失误,具备很高的热度,Hugging Face抢手排行Top1。

Agent中须要LLM具备很强的推理布局才干 ,这种反思技术训练的模型能否很契合Agent尼?有待进一步验证

从试验对结果看,是击败GPT-4o、Claude 3.5 Sonnet,遥遥上游的,更强405B版本 估量下周推出,十分等候

面壁小钢炮MiniCPM 3.0开源

面壁智能开源新一代片面开挂的小钢炮,4B规模到达ChatGPT级才干:

零一万物Yi-Coder系列模型开源

Yi-Coder 有两种规模—— 15亿和90亿参数 ——提供基础版和聊天版,旨在成功高效的推理和灵敏的训练。值得留意的是,Yi-Coder-9B 在 Yi-9B 的基础上,额外参与了2.4万亿高品质的标志,这些标志精心挑选自 GitHub 上的代码库级别的代码语料库,以及从 CommonCrawl 挑选出的与代码关系的数据。

Yi-Coder 的关键个性包含:

DeepSeek-V2.5版本颁布

DeepSeek-V2.5 是一个更新版本,它联合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。这个新模型整合了前两个版本的通用和编码才干。

DeepSeek-V2.5 更好地合乎人类的偏好,并在多个方面启动了优化,包含写作和指令遵照:

首个齐全开源MoE大模型:OLMoE

OLMoE-1B-7B 是一个具备10亿生动参数和70亿总参数的专家混合( Mixture-of-Experts )大型言语模型(LLM),于 2024年9月(0924)颁布 。它在老本相似(10亿)的模型中提供了最先进的性能,并且与像 Llama2-13B 这样的更大模型具备竞争力。 OLMoE 是100%开源的

开明 MoE 和密集型言语模型(LMs)的性能、老本和开明水平

checkpoints:https://arxiv.org/pdf/2409.02060code :::

您可能还会对下面的文章感兴趣: