霍金再发警告:人工智能可能通过核战争或生物战争摧毁人类
人工智能(AI)技术一直是著名物理学家史蒂芬·霍金(Stephen Hawking)关注的重点。继2015年9月抛出“人工智能威胁论”之后,近日霍金再次表达了他对人工智能技术的担忧。
本月8日,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。
霍金表示:
自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。 实际上,霍金是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。AI甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。 但霍金也一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:
一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。 英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:
我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:
AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号
随时掌握互联网精彩
随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 奋力打开改革发展新天地 7914685
- 2 中国黄金原董事长家搜出大量黄金 7950220
- 3 保时捷断臂求生 7892618
- 4 “冷资源”里的“热经济” 7738471
- 5 女子过马路遭压路机辗压身亡 7673455
- 6 服刑期间李铁需要剪掉长发 7554827
- 7 拜登宣布将为37名联邦死囚减刑 7456678
- 8 喝水后有4种表现提示肾有问题 7360983
- 9 山姆代购在厕所分装蛋糕 7225700
- 10 刘强东提前发年终奖 7121497