以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:2016年12月,一个名为“...-2”的载人机器人进行了试验行走。这种由韩国未来科技公司制造的机器人并不是所谓的...手机器人之一,而是一种新型机器人技术的范例。而不是致力于自主...伤技术,KAIST应该致力于改善而不是伤害人类生命的人工智能设备,研究人员说。
人工智能(AI)社区对韩国的研究人员有一个明确的信息:不要制造 ... 人机器人。
近60个人工智能和来自近30个国家的机器人专家签署了一封 ... ,呼吁 ... 韩国大田公立大学KAIST, ... 说,据报道,这是“开发应用于 ... 武器的人工智能技术,加入发展自主武器的全球竞争”,
换句话说,KAIST可能正在研究如何制造 ... 级人工智能武器。[5个害怕机器人的理由]
根据 ... ,当全世界的人工智能专家得知KAIST-与Hanwha系统合作,韩国主要的军火公司在2月20日开设了一个新的设施,名为国防与人工智能融合研究中心。鉴于联合国已经在讨论如何保护国际社会免受 ... 伤性人工智能机器人的攻击,“令人遗憾的是,一个著名的研究人员在信中写道:“像KAIST这样的机构希望加速军备竞赛,以发展此类武器。”
强烈阻止KAIST的新任务,研究人员正在 ... 这所大学,直到校长明确表示该中心不会发展“缺乏有意义的人类控制的自主武器”写信人说。
这次 ... 将是全方位的例如,我们将不访问KAIST,不接待KAIST的访客,也不参与任何涉及KAIST的研究项目,”研究人员说,
如果KAIST继续追求自主武器的发展,可能导致战争的第三次革命,研究人员说。他们说,这些武器“有可能成为恐怖武器”,它们的发展可以鼓励战争更快、更大规模地进行。研究人员说,获得这些武器的
暴君和 ... 可以用它们对付无辜民众,消除正规战士可能面临的任何道德约束补充道:
这样一项针对致命技术的禁令并不新鲜。例如,据《生命科学》先前报道,日内瓦四公约禁止武装部队直接对人使用致盲激光武器。此外,有190多个国家参加的《化学武器公约》禁止使用沙林和VX等神经毒剂。然而,并不是每个国家都同意对这些神经毒剂实行全面保护。汉华公司与KAIST合作,帮助生产集束弹药。研究人员说,联合国《集束弹药公约》禁止这种弹药,100多个国家(虽然不是韩国)签署了反对这种弹药的公约。
韩华的行为受到了影响;基于道德理由,挪威公开发放的3800亿美元养恤基金没有研究人员说,投资汉华的股票。
而不是致力于自主 ... 伤技术,KAIST应该致力于改善而不是伤害人类生命的人工智能设备,研究人员说。
同时,其他研究人员多年来一直警告不要使用 ... 伤性人工智能机器人,包括埃隆·马斯克和已故的斯蒂芬·霍金。
关于生命科学的原始文章。
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。