谷歌说「不作恶」?Nature评论:人工智能研究应当成为军事发展的助力

百家 作者:机器之心 2018-06-08 03:45:20

机器之心整理

机器之心编辑部


今天,谷歌首席执行官桑达尔·皮查伊宣布了「谷歌 AI 研究七大准则」,为公司近期在军事 AI 项目上的争议作出了官方回应。与此同时,美国智库 New American Security 研究员 Gregory C.Allen 在 Nature 上撰文表示,谷歌人工智能研究员合乎道德的做法应该是参与选择国家安全项目,而不是关闭所有项目。


今年 1 月,谷歌 CEO Sundar Pichai 曾表示人工智能的影响会比电力「更深刻」。他遵循谷歌领导者的悠久传统,称其技术是变革性且美妙的。


问题在于变革性的技术也会变革军事力量,AI 也不例外。6 月 1 日,谷歌宣布不会续签与美国军方合作的 Project Maven 合同。该项目是美国军队首次在操作层面上部署「深度学习」AI 系统,使用处理层将数据转换成抽象表征,在此项目中,其目标是将军事无人机收集的摄像片段图像进行分类。在大约 4000 名谷歌员工签署禁止谷歌参与构建「军事技术」的请愿书后,谷歌决定撤出该项目。


这种退却带来了巨大的道德风险。将先进的 AI 技术整合到军事领域和过去将电力应用到军事领域一样,都是不可避免的,这一变迁充斥着伦理和技术风险。它将采用很多天才 AI 研究者的研究成果作为输入,来帮助军队保持伦理道德的正确方向,包括谷歌等大公司的研究者。


去年,我代表美国智能社区进行了一项研究,结果显示 AI 的变革性影响将覆盖国家安全的方方面面。军事机器人、网络安全、监控和宣传在面对 AI 支持的破坏行为时是很脆弱的。美国、俄罗斯和中国都期望 AI 成为未来军事力量的基础,美国及其盟友在重要军事技术方面的垄断(如隐形战机和精确制导武器)正走向结束。


我很同情面临是否支持军队难题的学界和业界研究者。一方面,保护美国及其盟友的安全、自由和强大,以阻止潜在威胁一如既往地重要。帮助军队利用新技术能够减少战区士兵和公民的危险,同时增强国家安全。


另一方面,帮助军方的研究者有时又会后悔。一些为曼哈顿项目工作的科学家(该项目开发了二战中使用的原子弹),后来认为如果没有原子弹研究,世界会变得更好。很多 AI 应用在伦理和法律上可能存在问题,比如帮助警察侦察和判刑的软件所遇到的麻烦。


幸运的是,美国 AI 研究者可以自由选择项目,并影响他们的员工和合作者。


然而,即使研究员拒绝参加一个项目,他们也不能真的选择不关心国家安全的后果。很多业余爱好无人机制造商惊恐地发现他们的产品被伊斯兰教恐怖分子组织 ISIS 用于对美国军队投掷炸弹。毫无疑问很多开发无人驾驶汽车的研究员并没有完全考虑该技术对无人坦克或无人汽车炸弹的影响。但忽略潜在的应用并不能阻止它们的发生。


此外,AI 科学家将他们的很多工作开源。在这些案例中,发表算法、代码库和训练数据集将使这些构建模块对所有军方可用,本来温和的项目也可能带来有害的应用。技术公司全面拒绝和美国国家安全组织合作将会事与愿违,即使其它公司选择了合作。国家的 AI 研究员需要倾听军方对技术安全后果的声明,而军方也需要广泛的专家建议来合乎道德和有效地应用 AI。


这并不是说 AI 研究人员应该随意支持美国军方设计的每个项目。一些提议可能是不道德以及愚蠢的,研究人员应该拒绝这些提议。


但是有些 AI 项目真的能提升国家安全,并符合法律与道德上的准则。例如美国国防部高级研究计划局在对抗由 AI 构建的伪造视频和音频上的工作。人工智能研究社区应该考虑这一类的项目,或者至少不要妖魔化这些研究项目。


还记得细菌学家 Theodor Rosebury,他在 20 世纪 40 年代为美国军队研究生化武器。在第二次世界大战后,Rosebury 将它的生化武器限制在防御性研究,并主张将防御作为美国军队的唯一策略,他的立场最终被载入 1972 年的「生化武器公约」。现在,我们再回到谷歌和 Project Maven。


多年来我都参与提倡美国军方增加高级 AI 技术的使用,并且是以谨慎和具备道德意识的方式。Project Maven 执行的是 non-safety-critical 的任务,和暴力并没有直接联系,这正是我所希望的。系统使用 AI 计算机视觉来自动化无人机视频分析的大部分枯燥工作:人群、车辆和建筑的计数。企业的参与涉及的是应有的信用,而不是批评。


全或无的立场是危险的过度简单化。企业的和学术界的 AI 专家拥有独特的和必不可少的机会来帮助军方整合 AI 技术,并以合乎道德的方式支持国家和国际安全。


谷歌 AI 研究的七条准则


在上周五决定退出军事 AI 项目 Project Maven 之后不久,谷歌首席执行官桑达尔·皮查伊于今天发布了公司在 AI 研究,特别是 AI 军事研究上的道德准则。长达两个月的争议和抵制之下,谷歌改变了其在军事领域上的指导方向。值得注意的是,在新的准则之下,谷歌表示其将继续和军队保持合作。



谷歌认为人工智能应用应该实现的目标如下:


1. 有益于社会


新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。


AI 还增强了理解大规模内容的能力。谷歌将继续努力,利用 AI 提供高质量、可获取的准确信息,同时继续尊重各个国家的文化、社会和法律规范。谷歌将继续审慎评估何时能够在非商业的基础上推广技术。


2. 避免创造或增强偏见


AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。


3. 为保障安全而建立和测试


我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。


4. 对人们有说明义务


我们将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。我们的 AI 技术将服从合适的人类指导和控制。


5. 整合隐私设计原则


我们将把我们的隐私原则整合进 AI 技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。


6. 坚持高标准的科学探索


技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。


我们将与一系列志同道合的人合作,以科学性的严谨和多学科的方式促进这一领域领导力的发展。我们将通过发布教育资源、最佳时间和研究项目来负责任地分享 AI 知识,并令更多的人开发强大的 AI 应用。


7. 根据原则确定合适的应用


许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。在我们开发和部署 AI 技术时,我们将根据以下因素评估可能的用途:


  • 主要目的和用途:技术和应用的主要目的和用途,包括解决方案与危险使用的关联或它是否能适应于危险使用。

  • 自然和独特性:我们提供的是独特的技术还是普遍的应用。

  • 规模:这种技术的使用是否会产生重大的影响。

  • 谷歌在项目中的性质:我们是提供通用目的的工具、为客户集成的工具还是开发定制版的解决方案。


谷歌不会推动的 AI 应用


除了上面的目标,谷歌不会设计或者将 AI 应用到以下领域:


  1. 只带来或者可能只会带来伤害的技术;虽然有些技术有实质性的危害风险,我们将只会进行大体上收益大于危害的技术,同时也会做出合适的安全保证。

  2. 武器、其目标或者实现是为了直接/间接伤害人类的技术。

  3. 违背国际可接受的标准,收集或者使用监督信息的技术。

  4. 违背国际可接受的律法、人权等普世原则的技术。


谷歌希望澄清,虽然该公司决定不开发用于武器的 AI,但其将继续与政府、军队在其他许多领域合作,包括网络安全、训练、军人招募、军人健康、搜索与营救。这些合作非常重要,谷歌称自己将积极寻求更多方法来增强这些组织的重要工作,保证服务人员与平民的安全。 


参考内容:https://www.nature.com/articles/d41586-018-05364-x

https://blog.google/topics/ai/ai-principles/



本文为机器之心整理,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接