斯坦福基础模型钻研中心给您支招 开源大模型如何控制
人工自动畛域正派历着范式转变,基础模型(如GPT - 4、LLAMA 2)处于外围位置,驱动着技术翻新和少量投资。这引发了对其监管的宽泛需求。而在关于如何监管基础模型的讨论中,模型的颁布环节至关关键。近日, 由斯坦福大学基础模型钻研中心主任Percy Liang指导的论文《Considerations for Governing Open Foundation Models》宣布在Science,对开源大模型控制与监管启动了深化讨论 ,当天咱们就一同窗习一下这篇关键论文吧!
一、基础模型的颁布方式多样
基础模型的颁布出现出多维的态势。从齐全敞开(如Google DeepMind的Flamingo,仅模型开发者可用),到有限访问(如OpenAI的GPT - 4,群众可经常使用但为黑箱形式),再到更开明的方式(如Meta的Llama 2,模型权重宽泛可用,准许下游修正和审查)。截至2023年8月,英国竞争与市场控制局的数据显示,地下披露模型最经常出现的颁布方式是开明颁布。
二、开明基础模型的利害剖析
(一)长处清楚
(二)风险存争议
三、政策对开明基础模型的影响
(一)政策现状
环球各地政府都在出台与基础模型相关的政策。例如,美国行政命令要求国度电信和消息控制局为总统预备一份关于开明基础模型的报告;欧盟对计算量少于1025浮点运算的开明基础模型或者有豁免;英国的AI安保钻研所将思考开源系统等。此外,人工自动同伴相关也提出了基础模型安所有署的指点方针,不倡导对最弱小的基础模型启动开明颁布。
(二)潜在疑问
四、控制倡导
开明基础模型具备关键意义,政策制订应综合思考其利害,防止对其创重生态形成不良影响。
原文链接: