谷歌 AI正在毁掉互联网!
谷歌钻研人员宣布了一篇新论文,正告生成式人工默认正在用虚伪内容毁掉互联网。
这极具讥刺象征,由于倘若互联网真的在被GenAI所荼毒,谷歌自己也「功无法没」——它是环球上最大的构建、部署和推行GenAI的公司之一。
广为人知的是,其之前在搜查页面推出的AI概述配置,居然出现了「披萨上涂胶水」「吃石头」之类令人啼笑皆非的离谱倡导,起初谷歌不得不手动删除这些失误信息。
这篇论文由谷歌人工默认钻研试验室DeepMind、安保智囊团Jigsaw和慈善机构Google.org的钻研人员独特撰写,他们深化考查了关于生成式人工默认的钻研报告,以及约200篇关于生成式人工默认滥用的资讯报道,对生成式AI工具被滥用的不同方式启动了分类。
最终得出论断:在事实环球的滥用案例中,窜改人类肖像和伪造证据是最普遍的。这么做的用意也很明白,无非是为了影响群众言论、坑骗,或牟取利益。
奥特曼和马斯克都曾经正告过AGI或许会带来「生活性危险」,但谷歌这次的钻研重点是生成式人工默认。
生成式人工默认的危险虽然还没有回升到「要挟生活」的境地,然而却愈加迫近——这是当下正在出现的事情,而且未来或许会变得更糟。
由于这种技术让任何人都可以轻松地生成文本、音频、图像和视频,互联网上充满着伪造或窜改的人工默认生成的内容,「真实与虚伪之间的界限被含糊掉了」。
「虚伪信息炮制机」是GenAI的宿命?
钻研人员发现,大少数GenAI滥用案例都是对系统的反经常常使用,并没有「越狱」行为,这类「惯例操作」占了9成。
正如钻研人员在论文前面所解释的那样,GenAI的宽泛可用性、可访问性和超事实性,使得层出不穷的、较低级别的滥用方式成为或许——生成虚伪信息的老本真实是太低了!
阅读完这篇论文之后,你或许会情不自禁发生这样的感触:人们并没有滥用GenAI,只不过是依照其产品设计反经常常使用而已。
人们经常使用生成式人工默认来制造少量虚伪内容,是由于它原本就十分长于实现这项义务。
很多虚伪内容往往既没有显著的恶意,也没有明白违犯这些工具的内容政策或服务条款,但其潜在的危害是渺小的。
这一观察结果与404 Media之前的报道不约而同。
那些应用人工默认混充他人、扩展不良内容的规模和流传范畴,或制造未经赞同的私密图片(nonconsensual intimate images,NCII)的人,大多并没有入侵或操纵他们正在经常使用的人工默认生成工具,他们是在准许的范畴内经常使用这些工具。
很便捷就能举出2个例子:
AI工具的「围栏」可以用一些揭示奇妙避过,没有什么能阻止用户经常使用ElevenLabs的人工默认语音克隆工具高度真切地模拟出共事或明星的声响。
Civitai用户可以创立人工默认生成的名人图像,虽然该平台有制止NCII的政策,但雷同没有什么能阻止用户在自己的机器上经常使用GitHub上开源的工具(如 Automatic1111 或 ComfyUI)来生成 NCII。
斯嘉丽·约翰逊的头像是DeepFake重灾区
将这些AI生成的内容发到Facebook或许违犯了平台的政策,但生成这个行为自身并没有违犯他们所经常使用的人工默认图片生成器的政策。
媒体:GenAI的滥用只是冰山一角
由于谷歌的钻研素材少量来自于媒体报道,这就带来了一个疑问:这能否会让钻研论断带有媒体的成见?毕竟作为探照灯的媒体,在选题和报道上有自己的倾向。
那些骇人听闻的事情更容易被报道,这或许会造成数据集倾向特定类型的滥用。
404 Media对此做出了回应:虽然媒体确实只能报道它所能证明的事情,然而可以确定的一点是,还有少量的咱们尚未看法到的生成式人工默认的滥用没有被报道。
即使是上文提到的用AI生成名人色情图片的状况,被媒体少量告发,但依然存在报道无余的疑问。
首先是由于这一话题仍是忌讳,有很多出版物不愿报道。
其次是由于媒体只能捕捉到个例,无法一直关注事情的全体和后续,404 Media的一名编辑写道:
在我咨询Patreon官网作出回应(之后发言人封锁了他的账户)之前,我写过一篇报道,关于一个用户在Patreon上经过 NCII 盈利,他制造了53190张未经赞同的名人图片。那篇报道中还提到了另外两名NCII制造者,之后我又发现了其他人。 泰勒·斯威夫特在推特上疯传的人工默认生成的裸体图片就是在Telegram和4chan社区初次分享的,在一月份那篇报道爆出前后,这些社区都很生动,从那,他们每天都在发布NCII。我和其余记者不会对每一张图片和创作者都启动报道,由于假设这样做,咱们就没有期间做其余事情了。
当虚伪信息众多,甩锅给AI变得很容易
让咱们做一个推演,当互联网上充满着人工默认生成的内容,会出现什么?
最间接的结果是,互联网上的凌乱状况会对人们别离虚实的才干带来渺小的考验,咱们将堕入一种经常性的疑心,「这是真的吗」?
在互联网刚刚出现的时代,盛行的一句话是,「你不知道网线那头是人是狗」,如今这种趋向愈演愈烈了,人们被虚伪的人工默认生成内容所淹没,越来越疲于应答。
假设不加以处置,人工默认生成的内容对地下数据的污染还或许会阻碍信息检索,歪曲对社会政治事实或迷信共识的群体了解。
而且,这或许会成为一些出名人物的「挡箭牌」,在某些状况下,他们能够将对自己不利的证据解释为人工默认生成的,笨重地将举证的责任转移进来。
关于生成式AI所带来的虚伪内容的众多,谷歌起到了推波助澜的作用,甚至可以说是「始作俑者」也不为过,多年前射出的子弹,今天终于击中了自己的眉心。