马斯克与 DeepMind 创始人签署协议,数千名 AI 学者承诺不研制致命 AI 武器

百家 作者:DeepTech深科技 2018-07-19 05:57:48


近日,SpaceX 和特斯拉首席执行官Elon Musk,Google DeepMind 三位联合创始人与约 2400 名研究人员,签署了不发展“致命自主武器”的承诺宣称他们不会参与开发或制造能够自动识别和攻击人的机器人

 

这一行动是有关科学家和组织的最新举措,旨在强调将人的生死决定权移交给 AI 机器的危险阻止军事公司和国家建立致命的自主武器系统。这份公约的签署响应了之前的一次科学家对于禁止开发 AI 武器的呼吁,彼时军方正打算加速开发新一代的大规模杀伤性武器。

 


该承诺由总部位于波士顿的组织“未来生命研究所”发起,呼吁各国政府和政府领导人建立一个强大的国际规范和法律法规,以有效地反对和禁止致命自主武器的发展。


在各国尚未出台相关政策和措施的情况下,今天在斯德哥尔摩举行的国际人工智能联合会上,签署方宣布并承诺“既不参与也不支持致命自主武器的开发、制造、贸易和使用。”150 多家与 AI 相关的公司和组织在这份承诺书上签署了他们的名字



图丨Yoshua Bengio

 

蒙特利尔学习算法研究所的人工智能先驱 Yoshua Bengio 表示,如果这份承诺能够让那些制造自主武器的公司和军事组织蒙羞,公众舆论也会跟着一起反对他们。“就像尽管美国这样的大国没有签署禁止地雷的条约,但由于国际条约和公众压力,也起了类似禁止的效果,美国的相关公司已经停止建造地雷,”Bengio 说。Bengio 也在这份承诺书上签了字,表达他对“致命自主武器的强烈关注”。

 

军方是人工智能技术的最大资助者和利用者之一。借助先进的计算机系统,机器人可以在敌对地形上执行任务,在地面上航行,也可以在海上巡逻。更复杂的武器系统正在研发中。本周一,英国国防大臣 Gavin Williamson 宣布准备投资 20 亿英镑,用于英国皇家空军第 6 代战斗机——“暴风”战斗机的研发。该战斗机可以在没有飞行员的情况下自动驾驶。

 

英国政府表示,英国不会开发致命自主武器系统而且军方将始终对其部署的武器进行监督和控制。但是活动人士警告说,AI 和其他领域的快速发展意味着现在有能力制造出能在未经人类控制者同意的情况下识别跟踪和射击人类目标的尖端武器。对于许多研究人员而言,让机器决定人的生死会跨越道德路线

 

“我们需要使禁止自主武器成为国际规范。整个人类都必须加入到这一运动中来,”悉尼新南威尔士大学的人工智能教授 Toby Walsh 说。

 

“我们不能阻止一个下定决心的人建造自主武器,就像我们无法阻止一个下定决心的人制造化学武器一样,”他补充说,“但如果我们不希望流氓国家或恐怖分子轻易获得自主武器,我们就必须确保武器公司不会出售武器给他们。”

 

研究人员可以选择不参与研发 AI 自主武器工作,但其他人对整个业界的突破进展实际上已经超出了他们的控制范围。另一位公约签署人,也是兰卡斯特大学人类科学与技术系教授 Lucy Suchman 表示,即使研究人员无法完全控制他们工作被如何利用,但他们也可以在有顾虑时进行参与和干预


图丨Lucy Suchman

 

“如果我是一名签署了承诺的机器视觉研究员,我会首先承诺跟踪我的技术的后续使用,并反对他们在武器上实现目标自动识别的应用;其次,我会拒绝参与建议或直接帮助将该技术融入自主武器系统,”她说。

 

以下为承诺书的全文如下

人工智能(AI)有望在军事系统中发挥越来越大的作用。公民政策制定者和领导者有必要区分人工智能可接受和不可接受的用途


从这个角度来看,我们签名者同意,永远不应该将人类生命的决定权委托给机器。这个立场涉及道德伦理,我们不应该让机器决定人的生死,而其他人,或者没有人,将受到惩罚。


还有一个强有力的实用论点:致命的自主武器,在没有人为干预的情况下识别、选择和攻击目标,将危及每个国家和个人的稳定和安全。成千上万的人工智能研究人员一致认为,致命的自主武器降低了索取人类生命风险,消除了索取人类生命的因果和难度,可能成为暴力和压迫的有力工具,尤其是在与监视和数据系统相关联时。


此外,致命的自主武器具有与核武器,化学武器和生物武器截然不同的特点。国际社会缺乏管理的技术工具和全球治理体系,单一集团的单方面行动很容易引发军备竞赛,防止这种军备竞赛应成为国家和全球安全的首要事项。


我们,签名人,呼吁各国政府和政府领导人建立一个拥有强大的国际规范和法规,反对致命自主武器的发展。这些法规目前还有些欠缺,但我们要保持更高的标准:我们既不参与也不支持致命自主武器的开发制造贸易和使用。我们要求技术公司和组织以及领导者,政策制定者和其他个人加入我们的承诺。


-End-

 

编辑:李根

校审:黄珊

参考:

https://www.theguardian.com/science/2018/jul/18/thousands-of-scientists-pledge-not-to-help-build-killer-ai-robots?CMP=Share_iOSApp_Other_





关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接