对抗 AI 偏见巨擘动起来,IBM 研究院开源 9 个 AI 偏见防御算法

百家 作者:DeepTech深科技 2018-09-23 12:46:54

参加 Meet 35 大会,请点击↑


科技中立,但人制造出来的 AI 却可能带有偏见或歧视。自去年底以来 AI 偏见(AI Bias)就成为学术界及人工智能行业疾呼需要解决的问题,软件巨擘 IBM 在美国时间 19 日宣布将IBM Research 研发的偏见检测工具—AI Fairness 360 工具包开源,包括超过 30 个公平性指标(fairness metrics),和 9 个偏差缓解算法,研究人员和开发者可将工具整合至自己的机器学习模型里,检测并减少可能产生的偏见和歧视。

 

目前谈论较多的 AI 偏见情况像是性别歧视、种族歧视,例如面部侦测算法在识别白人时的准确率比识别黑人高许多,男性跟女性类别也存在类似问题,让软件识别犯罪嫌犯人选、企业挑选求职者时,也曾引发歧视问题。

 

另外,AI 偏见也超出了性别和种族,越来越多 AI 被应用在银行信用评等、保险费用计算,而且还影响决策者做出批准或拒绝贷款、甚至是要不要赔偿保险的决定,但这些都可能因为数据集不完善或缺乏多元性,让 AI 做出不合宜的判断结果,对社会造成不小的影响。

 

因此 IBM 率先选择了 3 个领域的应用,作为 AI Fairness 360 工具包的示范教学,这三个领域分别是信用评等、医疗保健支出评分、面部识别中的性别偏见以及 9 种算法,包括预处理优化、Reweighing、对抗性偏见等。

 

图|IBM 提出开源 9 个 AI 偏见防御算法(图片来源:IBM)

 

一直以来 AI 的黑盒子问题不仅困扰着研究人员及企业,同时也限制了 AI 迈向大规模部署,IBM Watson Data 及 AI 副总裁 Ritika Gunnar 就表示,人工智能模型缺乏信任和透明度正在阻碍企业的部署,这是一个真正的问题。为了解决相关难题,行业有几个趋势,一是发展非监督式学习(Unsupervised Learning),像是 Facebook AI 首席科学 Yann LeCun、卡内基梅隆大学(CMU)教授 Zachary Lipton 等人都积极推动非监督式学习。另一个方向就是透过工具来提高AI 可解释性及透明度。

 

除了 IBM,谷歌在上周也开源了一项名为“What-If Tool”的探测工具。谷歌在官方博客上指出,建构有效的机器学习系统,光是训练模型是不够的,应更好地理解模型,像是数据点的变化将如何影响模型的预测?它对不同的群体有不同的表现,例如被边缘化的人群?数据集的多样性又是如何?What-If Tool 为开源 TensorBoard Web 应用程序的一项新功能,让用户在不需要编写代码的情况下分析机器学习模型。

 

另外,Facebook 在 5 月的年度开发者大会上宣布了检测偏见的工具—Fairness Flow,如果一个算法根据用户的种族、性别或年龄做出不公平的判断,它会自动发出警告。此外,根据《麻省理工科技评论》先前的报导指出,微软也正在研究侦测偏见的自动化工具,终极目标是要做到自动检测机器学习中的不公平性,帮助使用人工智能的企业不会无意中歧视某些人。

 

世界经济论坛(World Economic Forum)人工智能和机器学习负责人 Kay Firth-Butterfield 日前就提出警告:“现在的焦点是关于人工智能的道德问题,因为一些算法存在‘明显的问题’”,解决问题的方法是让西方的科技产业“更加多样化”。


-End-


关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接