以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:新的白宫人工智能报告对这个梦想持怀疑态度。报告关注的是可能被称为主流人工智能工具:机器学习和深度学习。类型I人工智能:反应式机器最基本的人工智能系统类型是纯反应式的,既不能形成记忆,也不能利用过去的经验来告知当前的决定。他的主要原因是人们不太擅长为计算机编程精确的模拟世界,在人工智能学术中被称为世界的“代表”。类型IV人工智能:自我意识人工智能开发的最后一步是构建能够形成关于他们自己的表示的系统。
人工智能研究中最新突破的常见且反复出现的观点是,感知和智能机器刚刚出现。机器比我们更能理解口头指令、辨别图片、驾驶汽车和玩游戏。他们还要多久才能走到我们中间呢?”新的白宫人工智能报告对这个梦想持怀疑态度。它说,在未来20年里,可能不会看到机器“显示出与人类相当或超过人类的广泛适用的智能”,尽管它继续说,在未来几年里,“机器将在越来越多的任务中达到并超过人类的性能。”但它关于这些能力将如何发展的假设忽略了一些重要的方面点。
作为一个人工智能研究者,我承认在美国 ... 的最高级别上突出我自己的领域是很好的,但是这份报告几乎完全集中在我所说的“无聊的人工智能”上。它用半句话驳斥了我的人工智能研究分支,即进化如何帮助开发不断改进的人工智能系统,以及计算模型如何帮助我们理解人类智能是如何进化的。
报告关注的是可能被称为主流人工智能工具:机器学习和深度学习。这些都是能够玩“危险游戏”的技术好吧,在有史以来最复杂的游戏中击败人类围棋大师。这些当前的智能系统能够处理大量的数据并快速进行复杂的计算。但它们缺少一个元素,这将是构建我们所想象的未来有感知机器的关键。
我们需要做的不仅仅是教机器学习。我们需要克服界定四种不同类型人工智能的界限,即将机器与我们和我们与它们分开的障碍。
类型I人工智能:反应式机器最基本的人工智能系统类型是纯反应式的,既不能形成记忆,也不能利用过去的经验来告知当前的决定。上世纪90年代末击败国际大师加里·卡斯帕罗夫(Garry Kasparov)的IBM下棋超级计算机“深蓝”(Deep Blue)就是这类机器的完美例子,
深蓝可以识别棋盘上的棋子,知道每一个棋子的移动方式。它可以预测自己和对手下一步的行动。它可以从各种可能性中选择最理想的移动。
,但它没有任何过去的概念,也没有任何以前发生过的事情的记忆。除了一个很少使用的国际象棋特定规则,禁止重复同一个动作三次,深蓝忽略了现在之前的一切。它所做的只是观察棋盘上的棋子,然后从可能的下一步棋中做出选择。
这类智能包括计算机直接感知世界并根据它所看到的行动。它不依赖于一个内在的世界观。在一篇开创性的论文中,人工智能研究人员罗德尼·布鲁克斯(Rodney Brooks)认为,我们应该只建造这样的机器。他的主要原因是人们不太擅长为计算机编程精确的模拟世界,在人工智能学术中被称为世界的“代表”。我们惊叹的当前智能机器
要么没有这样的世界概念,或有一个非常有限和专门的一个为其特定的职责。深蓝设计的创新之处并不是为了扩大电脑所考虑的电影的范围。相反,开发商们找到了一种缩小视野的 ... ,根据他们对结果的评价,停止追求一些未来可能的举措。如果没有这种能力,“深蓝”将需要一台更强大的计算机才能真正击败卡斯帕罗夫。
同样,击败顶尖围棋专家的谷歌AlphaGo也无法评估所有的性能未来也可能发生变化。它的分析 ... 比深蓝(Deep Blue)更为复杂,使用神经网络来评估游戏开发。
这些 ... 确实提高了人工智能系统更好地玩特定游戏的能力,但它们不容易改变或应用到其他情况。这些计算机化的想象对更广阔的世界没有概念——这意味着它们无法超越被分配的特定任务而发挥作用,很容易被愚弄。
它们无法像我们想象的那样,以交互方式参与世界。相反,每当这些机器遇到同样的情况时,它们的行为都会完全相同。这对于确保人工智能系统的可靠性是非常好的:你希望你的自动驾驶汽车是一个可靠的驾驶员。但如果我们想让机器真正与世界接触,对世界做出反应,那就太糟糕了。这些最简单的人工智能系统永远不会无聊、感兴趣或悲伤。
类型II人工智能:有限内存这个类型II类包含的机器可以回顾过去。自动驾驶汽车已经做到了一些。例如,他们观察其他汽车的速度和方向。这不可能在一瞬间完成,而是需要识别特定的物体并随着时间的推移对其进行监控。
这些观测结果被添加到自动驾驶汽车对世界的预先编程表示中,其中还包括车道标记、红绿灯和其他重要元素,如道路中的曲线。当汽车决定何时改变车道,以避免切断另一名司机或被附近的汽车撞到时,这些信息就包括在内。
,但这些关于过去的简单信息只是暂时的。它们并没有被保存为汽车经验库的一部分,它可以从中学习,人类驾驶者多年来积累驾驶经验的方式。
那么我们如何构建人工智能系统来构建完整的表示,记住他们的经验,并学习如何处理新的情况?布鲁克斯说得对,要做到这一点非常困难。我对达尔文进化论启发的 ... 的研究可以开始弥补人类的缺点,让机器建立它们自己的表示。
类型III人工智能:心智理论我们可以到此为止,并将这一点称为我们拥有的机器和我们将在未来建立的机器之间的重要分界线。但是,最好更具体地讨论机器需要形成的表示类型,以及它们需要什么。
机器在下一个更高级的类中不仅形成关于世界的表示,而且还形成关于世界上其他代理或实体的表示。在心理学中,这被称为“心理理论”——理解世界上的人、生物和物体可以有影响他们自己行为的思想和情感。
这对我们人类如何形成社会至关重要,因为它们允许我们进行社会交往。如果不了解对方的动机和意图,不考虑其他人对我或环境的了解,共同工作充其量是困难的,充其量是不可能的,他们必须能够理解我们每个人都有自己的想法、感受和对我们将如何被对待的期望。他们将不得不相应地调整他们的行为。
类型IV人工智能:自我意识人工智能开发的最后一步是构建能够形成关于他们自己的表示的系统。最终,我们人工智能研究人员将不仅要理解意识,而且要建立有意识的机器。
从某种意义上说,这是第三类人工智能所拥有的“心灵理论”的延伸。意识也被称为“自我意识”是有原因的。(“我想要那个项目”和“我知道我想要那个项目”是一个非常不同的说法)有意识的存有意识到他们自己,知道他们的内在状态,并且能够预测别人的感觉。我们假设有人在我们后面的交通中按喇叭是愤怒的,或者我mpatient,因为这就是我们对别人按喇叭时的感觉。如果没有心智理论,我们就无法做出这样的推论。
虽然我们可能远远没有创造出自我意识的机器,但我们应该把精力集中在理解记忆、学习和根据过去经验做出决定的能力上。这是了解人类自身智力的重要一步。如果我们想要设计或进化出对眼前所见进行分类的机器,这一点至关重要。
是密歇根州立大学生物与计算机科学与工程综合助理教授Arend Hintze,这篇文章最初是在对话中发表的。阅读原文。“
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。