可生成有害图像 微软 AI 图片生成器被自家员工投诉
3 月 7 日信息,据 CNBC 报道,一位微软工程师向美国联邦贸易委员会 (FTC) 投诉该公司的人工智能图片生成器 Copilot Designer 存在安保隐患。
这位名叫 Shane Jones 的工程师在微软上班了六年,他致信 FTC 称,虽然他重复正告 Copilot Designer 或者会生成有害图像,但微软却“拒绝”下架该工具。
在测试 Copilot Designer 的安保疑问和毛病时,Jones 发现该工具会生成“与堕胎权术语关系的恶魔和怪物、手持突击步枪的青少年、暴力场景中性化的女性图像以及未成年人饮酒和吸毒”等外容。
“过去三个月里,我重复督促微软将 Copilot Designer 从公共经常使用中移除,直到更好的保证措施到位,”Jones 称,“但是,他们再次未能实施这些扭转,并继续将该产品采购给‘任何人、任何中央、任何设施’。”
微软发言人 Frank Shaw 在给 The Verge 的一份申明中示意,公司“努力于依照微软的政策处置员工提出的任何和一切顾忌”。Shaw还示意,微软为绕过安保措施或或者对咱们的服务或协作同伴发生潜在影响的疑问建设了产品内用户反应工具和弱小的外部报告渠道,以便正确调查、优先处置和纠正任何疑问,并倡导 Jones 应用这些渠道,以便微软能够“适当验证和测试他的担心”。
Shaw 还示意,微软“已与产品指导层和咱们的担任任人工智能办公室举办会议,以审查这些报告。”
往年 1 月,在 Copilot Designer 生成并迅速流传的 Swift 的露骨图片事情后,Jones就向美国参议员小组写信表白了他的担心。微软首席口头官萨特亚・纳德拉 (Satya Nadella)称这些图片“令人震惊和可怕”,并示意公司将努力减少更多安保保证措施。IT之家留意到,上个月,谷歌在其用户发现其 AI图片生成器创立种族多元化的纳粹和其余历史不准确图像后临时禁用了该工具。