为解决AI的“歧视”问题,科学家开发了一款试图打开“黑盒子”的软件
年度订阅用户可加入科技英语学习社区,每周科技英语直播讲堂,详情查看“阅读原文”
人们开发人工智能的初衷是希望计算机能够模仿人类, 但是,一旦以人类作为计算机学习的模板, 人工智能不可避免地会“学习”到人类的某些缺陷,比如说歧视和偏见。
现在,哥伦比亚大学和理海大学(Lehigh Universities)的科学家们已经创造出新方法,可以避免歧视出现的情况。利用这种纠正深度学习网络错误的方法,他们已经可以进行复杂的人工智能逆向工程(即将其分解或者解析, 探索其组成部品与要素技术的原理),从而为神秘的人工智能“黑箱”问题提供一个解决方案。
深度学习的人工智能系统经常在“黑箱”中做出决策——也就是说,人类并不能容易地理解为什么一个神经网络为什么选择这个解决方法而不是另一个。这样的情况之所以存在,是因为机器可以在很短时间内运行几百万个测试从而得到一个结果,并继续运行另外几百万个测试去得到一个更好的结果。
在最新的研究中,科学家们创造了“DeepXplore”,一个能在神经网络中通过欺骗系统从而使其暴露自身缺陷的软件。哥伦比亚大学的合作开发者 Suman Jana 告诉说:“你可以将我们的测试过程看作是学习过程的逆向运作来理解它的逻辑。”
研究者解决黑箱问题的办法包括让系统中处理一系列它不能很好解决的问题。比如增强或者减弱光亮可能会用以驾驶交通工具的 AI 无法决定向哪个方向行驶。
经过巧妙优化的 DeepXplore 可以触发系统中几乎 100% 的神经元激活,这基本上激活了整个神经网络去扫描错误并试图引发问题。这是一个“打破一切”的方法,这个方法也得到了测试者们的认可。但是它仍有一个限制:这个方法并不简单,它不能自主证明你的人工智能是无错误的,虽然根据团队的研究,其效果远远优于随机测试或“对抗测试”。
试着弄清楚一个高级的神经网络是如何得到具体的结论,就像仅凭人力数清全世界苹果的准确数量,以“证明”一个计算器的结果。当遇到到这样的情况时,人工智能可能会做得更好。
哥伦比亚大学和理海大学的团队正在进行这项令人印象深刻的工作。哥伦比亚大学的开发者 Kexin Pei 表示:“我们计划不断完善 DeepXplore 去打开黑箱,以使得机器学习系统更加可靠和透明。随着机器正在承担越来越多的决策,我们需要确保可以测试它们的逻辑,以保证结果是精确而公正的。”
-End-
编辑:王维莹
校审:黄珊
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 奋力打开改革发展新天地 7949028
- 2 中方回应特朗普威胁收回巴拿马运河 7963626
- 3 刘强东提前发年终奖 7822233
- 4 “冷资源”里的“热经济” 7758200
- 5 全球约有1.9亿妇女为内异症患者 7618573
- 6 国足原主帅李铁已上诉 7588804
- 7 保时捷断臂求生 7412969
- 8 山姆代购在厕所分装蛋糕 7378117
- 9 喝水后有4种表现提示肾有问题 7275798
- 10 男子闪婚生女后发现妻子结过7次婚 7105479