人工智能的未来 通用人工智能

为了取得对人工智能的真歪了解,钻研人员应该把留意力转移到开发一种基本的、潜在的AGI技术上,这种技术可以复制人类对环境的了解。

谷歌、微软和 Facebook 等行业巨头,Elon Musk 的 OpenAI 等钻研试验室,甚至 SingularityNET 等平台都在押注通用人工智能(AGI)——智能代理了解或学习人类无法成功的任何智力义务的才干,这代表了人工智能技术的未来。

但是,有点令人惊讶的是,这些公司都没有专一于开发一种基本的、底层的 AGI 技术来复制人类的高低文了解。这或者解释了为什么这些公司正在启动的钻研完全依赖于具有不同水平特同性并依赖于当今人工智能算法的智能模型。

可怜的是,这种依赖象征着,人工智能充其量只能体现出智能。无论他们的才干如许令人印象深入,他们依然遵照蕴含许多变量的预约脚本。因此,即使是GPT3或 Watson 等大型、高度复杂的程序也只能体现出了解才干。实践上,他们不了解文字和图像代表了物理宇宙中存在并相互作用的物理事物。期间的概念或要素发生影响的想法对他们来说是完全生疏的。

这并不是要剥夺当天人工智能的才干。例如,谷歌能够以令人难以置信的速度搜查少量消息,以提供用户想要的结果(至少大少数时刻是这样)。Siri等团体助理可以预订餐厅、查找和浏览电子邮件,并实时给出批示。这个列表还在始终裁减和改良中。

但无论这些程序如许复杂,它们仍在寻觅输入并做出完全依赖于其外围数据集的特定输入照应。假设不置信,请向客户服务机器人征询一个“方案外”的疑问,该机器人或者会生成一个毫有意义的照应或基本没有照应。

总之,谷歌、Siri或任何其余目前的AI例子都不足真正的、知识性的了解,这最终将阻止它们向人工通用智能(Artificial General Intelligence)开展。要素可以追溯到过去50年大少数人工智能开展的关键假定,即假设艰难的疑问能够处置,便捷的智能疑问就会失掉处置。这一假定可以用莫拉维克悖论(Moravec’s Paradox)来描画,它以为,让计算机在智力测试中体现出成人水平的体现相对容易,但在感知和执行才干方面,让它们具有一岁婴儿的技艺却很难。

人工智能钻研人员的假定也是失误的,他们以为,假设构建了足够多的狭义人工智能运行,它们最终将共同生长为通用智能。与儿童可以毫不费劲地整合视觉、言语和其余感官的模式不同,狭义的AI运行无法以一种通用的模式存储消息,从而准许消息被共享并随后被其余AI运行经常使用。

最后,钻研人员失误地以为,假设可以建设一个足够大的机器学习系统和足够的计算机才干,它就会自发地体现出通用智能。这也被证实是失误的。正如试图失掉特定畛域知识的专家系统无法创立足够的案例和示例数据来克制潜在的不足了解一样,人工智能系统也无法处置“非方案内的”恳求,无论其规模有多大。

通用人工智能基础知识

为了取得真正的人工智能了解,钻研人员应该将留意力转移到开发一种基本的、潜在的 AGI 技术,以复制人类对高低文的了解。例如,思考一个 3 岁儿童玩积木时体现出的情境看法和情境了解。3 岁的孩子明确积木存在于三维环球中,具有重量、外形和色彩等物理个性,假设重叠得太高会掉上去。孩子还了解因果相关和期间流逝的概念,由于积木在首先被重叠之前不能被击倒。

3 岁也可以变成 4 岁,而后是 5 岁,最后是 10 岁,以此类推。简而言之,3 岁儿童的才干与生俱来,包括生长为配置完全、普遍痴呆的成年人的才干。关于当天的人工智能来说,这样的增长是无法能的。不论它如许复杂,当天的人工智能依然完全不知道它在其环境中的存在。它不知道如今采取的执行会影响未来的执行。

只管以为一个从未教训过自身训练数据之外的任何事件的人工智能系统能够了解理想环球的概念是不理想的,但为人工智能减少移动觉得舱可以让人工实体从理想环境中学习,并展现出对理想中物理对象、因果相关和期间流逝的基本了解。就像那个3岁的孩子一样,这个装备了觉得舱的人工实体能够间接学习如何重叠积木、移生物体、随着期间的推移执行一系列的执行,并从这些执行的结果中学习。

经过视觉、听觉、触觉、操纵器等,人工实体可以学习以纯文本或纯图像系统基本无法能的模式启动了解。如前所述,无论它们的数据集有多大和多变,这样的系统基本无法了解和学习。一旦实体取得了这种了解和学习的才干,甚至有或者移除觉得荚。

只管在这一点上,咱们无法量化须要多少数据来示意真正的了解,但咱们可以推测,大脑中必定有一个正当的比例与了解无关。毕竟,人类是在曾经教训和学习过的一切事物的背景下解释一切事物的。作为成年人,咱们用生命最后几年学到的知识来解释一切。思考到这一点,仿佛只要AI社区看法到这一理想,并采取必要步骤建设基本的了解基础,真正的人工通用智能才有或者完全发生。

您可能还会对下面的文章感兴趣: