导读:美媒报导:现代AI研究领域人工智能分类解读。据美国生命科学网报道,在人工智能 (AI)研究领域,业内人士对最新突破产生的共识就是,有情感意识的智能机器距离成为现实还很遥远。
参考《2016-2022年中国人工智能市场专项调查及十三五投资前景预测报告》
据美国生命科学网报道,在人工智能 (AI)研究领域,业内人士对最新突破产生的共识就是,有情感意识的智能机器距离成为现实还很遥远。在理解语音指令、分辨图像、驾驶汽车以及打游戏方面,机器已经比人类做得更好。那么,还需要多久,机器才能自然行走在人类中间?
美国白宫发布的最新AI报告,对这种梦想持怀疑态度。报告中称,未来20年中,我们可能还无法看到机器具有广泛的应用智力能力或超越人类的智力。但是将来,在执行越来越多的任务中,机器的表现将达到甚至超过人类水平。
作为AI研究人员,我很高兴自己从事的研究成为美国政府最为关注的领域之一。但白宫报告几乎都聚焦于我所谓的“最无聊的AI”,并拒绝接受AI分为不同种类的观点。与此同时,报告中也没有阐述AI进化如何帮助开发不断完善的AI系统,计算模型如何能帮助我们理解人类智能如何进化等。
白宫AI报告中重点介绍了被称为“主流AI”的工具,包括机器学习和深度学习。这些技术可以玩智力游戏《Jeopardy》、在史上最复杂游戏中击败人类围棋大师等。当前的智能系统的确能够处理海量数据,并迅速做出复杂的运算。但是它们缺少一个重要元素,它将是我们将来制造情感机器的关键。
除了教授机器学习,我们还有更多工作要做。我们需要克服四类不同AI之间的界限,这些界限将AI与我们隔离开来。
第一类AI:响应式机器
绝大多数基本型的AI系统都属于纯粹的响应式机器,它们既不具备形成记忆的能力,也不具备借鉴过去经验的能力,以便帮助做出当前决策。IBM的超级电脑“深蓝”曾经于20世纪90年代末期击败人类国际象棋大师加里•卡斯帕罗夫(Garry Kasparov),它就是响应式机器的完美代表。
“深蓝”可以识别棋盘上的棋子,并知道如何移动棋子。它甚至还能预测自己和对手的下一步棋路,并在诸多可能性中选择最优方案。但是“深蓝”没有“过去”的概念,也没有此前的记忆。除了偶尔利用国际象棋的具体规则,比如反对重复同样的步骤3次外,“深蓝”几乎会忽略此前发生的一切。它的重点就是关注当前棋盘上的棋子,并为下一步移动做出选择。
这类智能涉及到计算机直接感知的世界,并作用于其所能看到的地方。它不依赖于世界的内部概念。在开创性的论文中,AI研究专家罗德尼•布鲁克斯(Rodney Brooks)认为,我们应该只制造这类机器。他的主要理由是,人们并不擅长编程计算机使用的精确模拟世界。
我们当前研发的智能机器要么根本没有这类世界的概念,要么只有执行特定任务的智能机器拥有十分有限的概念。“深蓝”的设计创新并没有扩大计算机考虑的可能步骤的范围。相反,研究人员发现了缩小其视野的方法,以防止其追求某些潜在的未来步骤,这取决于其如何评价结果。没有这种能力,“深蓝”可能需要更强大的计算机才能击败卡斯帕罗夫。
与之类似,谷歌的AlphaGo曾击败人类围棋大师,但它也不能评估未来所有的潜在步骤。其分析方式比“深蓝”更复杂,利用神经网络评估游戏进展。这些方法的确提高了AI系统的能力,让它们在玩特定游戏时表现更好。但它们无法被轻易改变或应用到其他情况。这些计算机化的想象没有广泛世界的概念,这意味着它们无法超越特定任务的功能限制,因此很容易受到愚弄。
此外,它们不能以交互的方式参与到世界中,这是我们畅想未来AI系统具备最重要能力。相反,这些机器每次遇到相同的情况时,它们就会执行预先编程的相同策略。在确保AI系统可信性方面,这可能是个好消息,比如你希望自己的无人驾驶汽车成为可以信赖的司机。但如果我们希望机器能够真正参与互动,对世界作出真正反应,这可能会很糟糕。这些最简单的AI系统永远不会感到无聊、感兴趣或悲哀等情绪。
第二类AI:有限记忆机器
这类AI可以短暂回顾过去的经验,无人驾驶汽车已经可以做到这一点。举例来说,它们会观察其他汽车的速度和行进方向。它们现在还无法立刻完成这个动作,而是需要识别特定目标,并监督它们一段时间。
这些观察会被添加到无人驾驶汽车预先编程的模拟世界中,包括车道标记、交通灯以及其他重要元素,比如公路曲线等。此外还包括汽车决定何时变道,以避免被附近的汽车撞到。
但是这些有关过去的简单信息只是短暂的,不会被储存在汽车已经了解到的经验库中,经验库相当于人类司机积累的驾驶经验。那么,我们如何建立能够充分模拟世界、记住它们的经验以及学习如何处理新情况的AI系统呢?布鲁克斯认为,很难做到。我的研究方法从达尔文进化论中吸取灵感,即可通过机器自己建立模拟世界以弥补人类的短板。
第三类AI:心智理论机器
这可能是我们已经建造的AI机器与将来要建造的AI机器之间的重要鸿沟。未来的AI机器将更加先进,它们不仅会自己建立模拟世界,还会模拟世界上其他对象和实体。在现实世界,这被称为“心智理论”,即理解世界上的人类、生物都有思想和情绪,而这些思想和情绪可影响他们的行为。
这对人类形成社会时至关重要,因为它们允许我们进行社会交流。如果不相互了解动机和意图,不考虑其他人对自己或环境的了解,最好的情况下是协作非常困难,最坏的情况是根本不可能有协作。
如果AI系统要想走在人类中间,它们必须能够理解我们每个人都有不同的想法和感受,并期望自己被如何对待。为此,它们必须对自己的行为进行相应调整。
第四类AI:自我意识机器
AI发展的最后阶段就是建立能够形成代表它们自己的模拟世界的系统。最终,我们的AI专家不仅需要自己理解意识,还要建造拥有自我意识的机器。从这种意义上说,第四类AI是第三类AI所代表的“心智理论”机器的延伸,同时也是意识被称为“自我意识”的原因。
有意识的存在可以意识到他们自己,了解它们的内部状态,能够预测其他人的感受。我们假设有人在后面狂按喇叭代表愤怒和不耐烦,因为我们那样做时也代表着同样感受。没有心智理论,我们就无法做出这些推论。
现在距离创造具有自我意识的机器可能还很遥远,我们应该集中努力打造理解记忆、学习以及基于过去经验作出决定的AI能力。这是理解人类智慧的重要步骤。如果我们想要设计或开发超越这些分类的机器,这一点也非常重要。
资料来源:公开资料,中国报告网整理,转载请注明出处(TYT)
【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。