以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:作为一个人工智能研究者,我经常会想到很多人害怕人工智能可能带来的东西。考虑到历史和娱乐业,我们可能会害怕控制论的接管,迫使我们生活在封闭的“矩阵”中,就像某种人类电池。,但我很难从我用来开发人工智能的进化计算机模型中找到答案,想想我屏幕上无辜的虚拟生物是如何成为未来的怪物的。也许我不应该回避这样一个问题:作为一名人工智能专家,我对人工智能有什么恐惧?
这篇文章最初是在对话会上发表的。这篇文章为《生命科学》的专家之声:Op Ed&Insights贡献了一篇文章。
作为一个人工智能研究者,我经常会想到很多人害怕人工智能可能带来的东西。考虑到历史和娱乐业,我们可能会害怕控制论的接管,迫使我们生活在封闭的“矩阵”中,就像某种人类电池。
,但我很难从我用来开发人工智能的进化计算机模型中找到答案,想想我屏幕上无辜的虚拟生物是如何成为未来的怪物的。我是否可以成为“世界的毁灭者”,就像奥本海默在率先制造第一颗核弹后所感叹的那样我想,
应该是我的成名之作,但也许批评者是对的。也许我不应该回避这样一个问题:作为一名人工智能专家,我对人工智能有什么恐惧?”
“害怕不可预见的”“HAL 9000计算机,由科幻小说作家阿瑟C克拉克(Arthur C.Clarke)设计,由电影导演斯坦利库布里克(Stanley Kubrick)在《2001:太空漫游》(2001:A Space Odyssey)中赋予其生命,是一个很好的例子,说明一个系统由于意外后果而失败。在许多复杂的系统中——RMS泰坦尼克号,NASA的航天飞机,切尔诺贝利核电站——工程师们把许多不同的部件放在一起。设计者可能知道每个元素是如何单独工作的,但对它们如何一起工作的了解不够。
导致系统永远无法完全理解,并且可能以不可预知的方式失败。在每一场灾难中——击沉一艘船,炸毁两架航天飞机,将放射性污染扩散到整个欧洲和亚洲——一系列相对较小的故障组合在一起,造成了一场灾难。
我可以看到,在人工智能研究中,我们如何可能落入同样的陷阱。我们从认知科学的最新研究,翻译成一个算法,并将其添加到现有的系统。我们试图在不了解智能或认知的情况下设计人工智能,像IBM的Watson和Google的Alpha这样的
系统为人工神经网络提供了巨大的计算能力,并取得了令人印象深刻的成就。但如果这些机器出错,他们就输在“危险或者不要打败围棋高手。这些都不是改变世界的结果;事实上,最坏的情况可能发生在一个普通人身上,结果是输掉一些钱,赌他们的成功。
,但随着人工智能设计变得更加复杂,计算机处理器更快,他们的技能会提高。这将导致我们给他们更多的责任,即使意外后果的风险上升。我们知道“犯错是人”,所以我们很可能不可能建立一个真正安全的系统。
害怕误用我不太担心我正在开发的人工智能类型中的意外后果,使用一种叫做神经进化的 ... 。我创造虚拟环境,进化数字生物和它们的大脑来解决日益复杂的任务。评估这些生物的表现;选出表现最好的生物进行繁殖,形成下一代。经过几代人的进化,这些机器生物进化出认知能力。
现在我们正在采取一些小步骤,进化出能够执行简单导航任务、做出简单决策或记住一些位的机器。但很快,我们将发展出能够执行更复杂任务和具有更好的通用智能的机器。最终我们希望创造出人类层次的智能。
一路走来,我们将通过进化的过程发现并消除错误和问题。每一代机器都能更好地处理前几代出现的错误。这增加了我们在模拟中发现意外结果的机会,这些结果在它们进入现实世界之前就可以消除另一种可能是利用进化来影响人工智能系统的伦理。人类的伦理道德,如诚信和利他主义,很可能是我们进化的结果,也是其延续的因素。我们可以建立我们的虚拟环境,为那些表现出善良、诚实和同情心的机器提供进化优势。这可能是一种确保我们培养出更多顺从的仆人或值得信赖的同伴和更少残忍的 ... 手机器人的 ... 。
虽然神经进化可能会降低意外后果的可能性,但它并不能防止滥用。但这是一个道德问题,不是科学问题。作为一名科学家,无论我是否喜欢实验结果,我都必须遵守我对真相的义务,报告我在实验中发现的东西。我的重点不是决定我是否喜欢或赞同某件事;重要的是我能揭露它。
害怕错误的社会优先事项作为一个科学家并不能免除我的人性。在某种程度上,我必须重新找回我的希望和恐惧。作为一个道德和政治存在者,我必须考虑我的工作的潜在影响及其对社会的潜在影响。
作为研究者,作为一个社会,我们还没有对我们希望人工智能做什么或成为什么有一个清晰的概念。当然,部分原因是我们还不知道它的功能。但我们确实需要决定先进人工智能的理想结果是什么。
人们关注的一个大领域是就业。机器人已经在做一些体力活,比如把汽车零件焊接在一起。不久的将来,他们也可能会做一些我们曾经认为是人类特有的认知任务。自驾车汽车可以取代出租车司机;自乘飞机可以取代飞行员。“KDSPE”“KDSPs”,而不是在一个由过度劳累的医生安排的急诊室获得医疗救助。患者可以通过专家系统进行检查和诊断,即时获取所有收集到的医学知识,并由一个不知疲倦的机器人用完美稳定的“手”进行手术;投资建议可以来自市场预测系统。
也许有一天,所有的人工工作都将由机器完成。即使是我自己的工作也可以做得更快,因为大量的机器孜孜不倦地研究如何制造更智能的机器。
在我们现在的社会中,自动化将人们赶出工作岗位,使拥有机器的人更富有,而其他人则更贫穷。这不是一个科学问题,而是我们作为一个社会必须解决的政治和社会经济问题。我的研究不会改变这一点,尽管我的政治自我——和人类其他人——可能能够创造一种环境,使人工智能变得广泛有益,而不是增加1%和我们其他人之间的差距。
对噩梦场景的恐惧还有最后一种恐惧,体现在HAL 9000,《终结者》和其他许多虚构的超智能:如果人工智能一直在进步,直到超越人类智能,那么超智能系统(或者不止一个)会发现它不再需要人类吗?我们如何在一个超级智慧的面前证明我们的存在,人类可以永远做不到的事情?我们能避免被我们帮助创造的机器从地球表面抹去吗?”
这个场景中的关键问题是:为什么一个超级智能会让我们留在身边
我认为我是一个很好的人,甚至可能帮助带来了超智能本身。我会呼吁同情心和同情心,这种超能力必须让我这个富有同情心和同情心的人活着。我还认为,多样性本身就有价值,宇宙太大了,人类在其中的存在可能根本不重要。当我仔细看一眼
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。