知名经济学教授提示我们——谨防AI错觉
最近关于知名互联网公司停止社招的问题闹的满城风雨,就连初创明星AI企业第四范式也逃不过媒体的法眼。但编编我觉得,且不说是否钱荒真的来临,听听各家的用工函和招聘标准,我们可以很容易感知到,即便各大企业都在缩招,以AI为代表的数据科学家、算法工程师等角色仍是招聘的刚需。行业里很多知名大佬都表示过,人工智能人才的缺失是整个行业,而并非一家的问题。
从2014年开始,人工智能这把火在普罗大众面前已经烧了好一阵了。如今,任何一个做数据分析的企业都能说自己是AI公司、头条的新闻告诉我们AI很快会替代我们的工作、主流观点都说AI的崛起是必然趋势。
然而,近期任教于波莫纳学院(Pomona College)的曾获弗莱彻·琼斯(Fletcher Jones)基金奖的知名经济学教授Gary Smith在他的新书《AI错觉》(The AI Delusion)中提出了另一种真相——计算机无法像人类一样思考,尽管它们似乎已经占据了我们的思想。
以下是该书节选:
计算机了解的事实的确比人类多。它们记忆力更强、计算速度更快,“体力”也更佳。
在拧紧螺栓、播撒种子、搜索法律文件、接受存款和出钞等重复单调的任务上,机器人的能力远超人类。
计算机能够识别物体,画图,开车。除此之外,想必各位读者都能列举出十几项厉害(甚至超人)的电脑技能。
微软人工智能产品小冰的诗集《阳光失了玻璃窗》
我们很容易陷入这种思维模式:因为计算机在某些方面能力出色,它们就一定具备高智能。在哈佛商学院4月份发表的一份研究报告中,实验人员对比了人们对事物的看法(比如一首歌的流行程度)分别会在多大程度上受到人类或计算机提供的“建议”的影响。一部分专家预测者认为人类更具说服力,但对实验中大部分人而言,来自算法的建议更有说服力。
计算机很聪明,并且越来越聪明,但计算机算法在设计上仍然只拥有有限的能力,只能完成一些定义明确的杂务,比如拼写检查和网络搜索。这和评估眼前所发生的事情、背后的原因以及采取行动的后果从而处理陌生情况所必备的一般智能相去甚远。
计算机无法构想具有说服力的理论,无法进行归纳推理或制定长期计划,也不具备人类的情感、感受和灵感,无法创作引人入胜的诗歌、小说或电影剧本。计算机完全不理解词语的含义,缺乏人类在生活中积累的智慧,不知道以下这几个简单问题的答案:
如果我把橙汁和牛奶混合在一起,加点盐味道好不好?
闭上眼睛倒退着下楼梯安全吗?
我不知道开发与人类一般智能相当的计算机需要多长时间。我猜想大概要几十年。我确信,声称这样的机器人早已存在的人是错误的,我也不相信那些给出具体日期的人。此外,请对牵强附会的科幻场景保持怀疑态度,警惕炒作AI产品的企业。
别说情感和诗歌了,就拿今天越来越多人痴迷于利用高性能计算机挖掘大数据模式以辅助重大决策来讲,当统计模型分析大量潜在解释变量时,可能出现的关系数量是惊人的,我们说的可是万亿级别的。如果考虑到许多潜在的变量,即使它们都只是随机的干扰因素,也必然会出现与目标高度相关的组合,无论我们试图通过AI预测的是癌症、信用风险、工作适宜性还是犯罪可能性。真正的知识发现偶有发生,但被考虑在内的解释变量越多,最终发现的关系就越有可能是巧合、短暂且无用的(甚至可能更糟)。
Illumina 基因测序芯片
通过分析Facebook或推特用词情况评估求职者的算法可能会发现虚假的相关性,无法很好地预测工作表现,但却对不同的性别、种族、性倾向和年龄产生了不同的影响。
2016年,汽车保险公司Admiral Insurance开发了一种汽车保险算法,其中一个考虑因素是Facebook用户喜欢迈克尔·乔丹(Michael Jordan)还是里奥纳德·科恩(Leonard Cohen)。在预定投入使用的几个小时前,Facebook表示它不允许Admiral获取其数据。
Facebook真正担心的或许不是歧视或隐私问题,而是它本身也开发了根据你和你的Facebook好友的特点评估贷款申请的专利算法。
最近,亚马逊推出了一个工作申请算法,主要使用了男性工程师的简历进行训练,据传此算法对包含“女性”这一字眼的简历施以“不公平的待遇”。亚马逊工程师尽了最大努力,仍无法确定这个算法不再歧视女性。这个问题日益凸显,亚马逊最终只能撤销了这个软件。
2017年,中国一家做AI贷款应用的公司的创始人兼CEO声称,“银行只关心海面以上的冰山一角,而我们建立的算法能够解读海面之下的海量数据。”海底里存在着什么有用的数据?知道结果你可能会有些惊讶,一切不过就是围着手机转。
这位CEO夸下海口,“我们不会从传统金融机构聘请风险控制人员……我们不需要人类来判断顾客的好坏。技术就是我们的风险控制。”他们把一系列数据作为鉴别一个人信用风险高低的证据,其中包括这个人接听来电的频率。分析接听电话的倾向不仅毫无意义,对于因宗教信仰而不能在特定日子或时间接听电话的人群而言,无疑更是一种歧视。
计算机无法评估它们所发现的模式是否有意义。只有逻辑、智慧和常识才能做到。问问2016年希拉里·克林顿竞选团队的资深人士就知道了,他们严重依赖一个软件程序,忽略了要求关注密歇根州和威斯康辛州的人类专家,当他们觉醒时,一切已经太迟了。那些经验丰富的竞选工作人员知道,这几个地方的民众缺乏热情,但热情很难衡量,于是计算机忽略了专家的意见。
假如计算机发现的模式被隐藏在黑匣子里,情况就愈加恶化了。此时,即使是设计算法的研究人员和工程师也不了解黑匣子里的详细情况。这只股票值得买;这个求职者不合适;这个病人应该服用这种药;这个囚犯应该被拒绝假释;这栋楼应该被炸毁……计算机何以得出以上结论,往往没有人能够完全理解。
AI和数字广告以及高度私密的个人数据一旦结合,潜在损害的范围就更大了,具体可参见特朗普竞选活动承包商剑桥分析公司(Cambridge Analytica)的案例。企业和政府收集大量个人数据,用于推动和激励我们购买不需要的产品,参观不喜欢的景点,以及把票投给我们不应该信任的候选人。
在人工智能和大数据的时代,真正危险的并不是计算机比人类更聪明,而是我们竟然产生了这样的错觉,于是信任计算机能够为我们做出重大决策。我们不应该被吓倒,误以为计算机是绝对正确的。请相信自己能够判断某些统计模式是否有意义,因此可能有用,又或者纯属巧合,因此稍纵即逝,毫无用处。
人类推理从根本上不同于人工智能,因此,前者放在今天尤为重要。
文 | 快公司编辑部
排版 | 和星星
图片 |网络
我们不以资产规模多寡排名、不以垂直领域论英雄、我们想跟你来场智力游戏,如若你认为你的客户和潜在客户面临的“麻烦”是一个富矿,且值得深挖,
那么《快公司》2018中国最佳创新公司榜单了解一下。
回复:创新公司,了解详细内容
点击阅读原文,即可报名
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- 1 习近平为何用这句话形容中俄关系 7904448
- 2 印巴停火 7808583
- 3 中美经贸高层会谈还将继续 7712035
- 4 中国外贸进出口表现亮眼背后的底气 7617157
- 5 退休夫妻月入1.2万负债1.2亿 7520073
- 6 主播直播战斗机起降 引来境外间谍 7423823
- 7 印度证实印巴已同意停火 7333825
- 8 17岁到67岁 你居然不爱我了 7234015
- 9 专家:印度打不起 巴基斯坦不想打 7140418
- 10 金手镯剪开竟流出液体轻了近2克 7047600