首页>TAG列表
第一个多模态MoE Aria

第一个多模态MoE Aria

大模型畛域的开展突飞猛进,每天都有许多幽默的论文值得深化品读,上方是本期觉得比拟无心思的论文,1、Aria,第一个多模态,文本,代码,图像,视频,MoE论文题目,Aria,AnOpenMultimod...

GSM AI数学天赋还是数字骗子

GSM AI数学天赋还是数字骗子

1、AI模型更新有妙招!废物应用让大言语模型更弱小构想一下,假设能把你的旧手机变成最新的智能设施,是不是很酷,在AI畛域,钻研人员就成功了相似的魔法!他们提出了一种叫做upcycling的方法,可以将...

MemLong 用于长文本建模的记忆增强检索

MemLong 用于长文本建模的记忆增强检索

​一、论断写在前面论文题目,MemLong,Memory,AugmentedRetrievalforLongTextModeling论文链接,https,arxiv.org,pdf,2408.1696...

经过计算最优抽样训练大言语模型推理器 更弱 却更优 更小

经过计算最优抽样训练大言语模型推理器 更弱 却更优 更小

一、论断写在前面论文题目,Smaller,Weaker,YetBetter,TrainingLLMReasonersviaCompute,OptimalSampling论文链接,​​https,arx...

MLLMs等畛域的模型兼并 运行与时机 通常 方法 LLMs

MLLMs等畛域的模型兼并 运行与时机 通常 方法 LLMs

​一、论断写在前面论文题目,ModelMerginginLLMs,MLLMs,andBeyond,Methods,Theories,ApplicationsandOpportunities论文链接,​...

大模型揭示词进阶 Thought Chain 一次性样本揭示和少样本揭示以及思想链 Cot of 零样本揭示

大模型揭示词进阶 Thought Chain 一次性样本揭示和少样本揭示以及思想链 Cot of 零样本揭示

技术的外围只要两点,一个是把技术做好,一个是把技术用好,在之前的文章中曾经说过,预训练和微调是为了打造一个更好用的大模型,而揭示学习是为了更好的经常使用大模型,激起大模型的潜能,而基于揭示学习开展起来...