OpenAI联合创始人:AI的极限?我真的不知道!

百家 作者:大数据文摘 2018-12-23 04:35:26


本文经O'Reilly授权发布

大数据文摘字幕组作品

翻译:虫2、大力、DollyShi

监制:钱天培


1901年,天文学家、数学家Simon Newcomb表示,人类不可能造出比空气更轻的飞机。1908年,莱特兄弟的飞机试飞成功。


二战过后,美国人公开表示,长距离火箭遥不可及。没过多久,俄罗斯的巨型火箭率先进入了外太空。


时间转到今天。当AI浸入各行各业的同时,对AI的质疑也纷至沓来。AI寒冬是否又会再次到来呢?OpenAI的联合创始人兼CTO Greg Brockman在近日的一次演讲中发表了他的看法:


<iframe class="video_iframe" data-vidtype="1" data-cover="http%3A%2F%2Fshp.qpic.cn%2Fqqvideo_ori%2F0%2Fu0815h7dy6r_496_280%2F0" allowfullscreen="" frameborder="0" data-ratio="1.7777777777777777" data-w="480" data-src="http://v.qq.com/iframe/player.html?vid=u0815h7dy6r&width=352&height=198&auto=0" width="352" height="198" data-vh="198" data-vw="352" style="display: none; width: 352px !important; height: 198px !important;"></iframe>


不想看视频的同学,可以阅读下面的文字哟~~~


“AI最终能达到什么样的高度,我现在还无法下一个定论。但目前的质疑呢,我看大多是不靠谱的!”


他从“科学发展史”、“AI发展史”、“深度学习的极限”和“算力极限”四个方面阐释了他的论点。


科学发展史

有啥疑问,直接找专家呀!他们的观点大多错不了。


但历史一遍遍证明,专家们错得可是太离谱了。


在1901年天文学家、数学家Simon Newcomb表示,比空气更重的飞机是完全不可能的。于是在1908年 他知道了莱特兄弟的飞机。


没关系,他承认这是可能的,但是他认为,这永远不可能商业化,因为这样的飞机不可能扩大到可以容下一个乘客和一个飞行员。于是又被啪啪打脸了。


二战后,美国人和俄罗斯人都关注了德国的V-2科技,这两国都想做同一件事那就是建立ICBM(An intercontinental ballistic missile,洲际弹道导弹),这意味着他们要扩大原本V-2火箭的规模十倍以上,造一个200吨的火箭。


美国人看到这,认识这完全不可能,就在接下来的五年里完全放弃了长距离火箭。


俄罗斯人说,可以没问题,因为我们就是要造一个巨型火箭。当太空比赛开始时,俄罗斯人说,看吧,我们已经有这个巨型火箭了!于是,俄罗斯人率先进入了外太空。


专家们在很多方面确实有很多先见之明,但是不能因为有人说了一些什么,就终止了某一领域的研究。


AI发展史



接下来,让我们来回顾一下AI发展史。


AI是一个讲究潮流的领域,这个领域里有多种多样的潮流。比如,某一个十年非常流行SVM(支持向量机),下一个十年,又流行别的模型了。


现在我们正处于最新潮流中,下一个十年又会流行别的。这话没错,这个过程是持续的,目前看不到尽头。那就让我们来挖一挖,这几十年AI到底经历了哪些潮流。


1959年,perceptron(感知机)被公开发表了。不止科学杂志疯狂报道,连纽约时报也写到:“像感知机这样神奇的东西,有一天它能识别人叫出他们的名字,并且在多种语言间实时翻译。”


1960年代,以Marvin Minsky和Papert为代表的人强烈反对感知机,发起各种运动,并且最终成功了。


在1969年他们表了一本书,里面证明了多种感知机无法解决的基本问题。


因此所有研究经费断供,所有基金断供。AI第一次寒冬来临。


这一波经费究竟被用到了哪里了?很大一部分其实被用来构建更大的电脑了。


二十年后的80年代,反向传播开始流行。


有趣得是,反向传播吸引来的人不是计算机科学家,而是认知科学家。他们真正激动的不是关于如何建造大型系统,如何拓宽这些技术的边界,而是关于理解大脑。他们非常乐意接受这样一种人造的系统,能够对他们的研究有那么一点关联。


由于算力的限制,反向传播一度也经历了大量质疑。但今天,在空前算力的支持下,反向传播将AI带到了全新高度。


深度学习的极限


所以,深度学习发展的极限是什么呢?


有很多人已经对此发表过看法了。一个很好的例子是,去年一位杰出的深度学习评论家说:深度学习模型将永远不能学会长距离规划,不论你用多少数据去训练它。



今年,我们在Dota比赛里展示了OpenAI Five,也就是Dota系统的长期规划能力。


一个月后,那个评论家又说,你可以用足够密集的空间样本来解决任何问题,但只有当你的数据量很小的时候才有趣。


我认为,看看过去几年结果的具体例子是很有启发性的,然后让我们想想:人们对之前的深度学习的局限性有什么看法,对之后的又有什么看法?


在深度Q学习出现之前,我们感觉深度学习仅仅是关于静态数据集的。突然,我们把神经网络投射到屏幕上面,然后给出一个分数,然后它开始能够玩转这些简单的游戏。


再举个例子。之前人们说,深度学习只会感知,永远也做不到最难的自然语言处理任务比如翻译。结果又被打脸了。


我们也许可以得出这样的结论,深度学习会取代所有的监督学习,并且在这些特定的领域内胜过人类的聪明才智。比如AlphaGo,比如我们的Dota工作。强化学习仅通过自身就能解决这个难以置信的难题。


当然,你仍然可能会产生这样的质疑:我们如何把这个东西应用到现实世界中去?强化学习是不是只会玩游戏呢?无论任务是怎么样的,我们都需要有一个完美的模拟器吧。


今年,我们用Dota系统训练了一个机器人,真的就是用Dota系统来指向这个环境。然后,我们可以教会这个机械手臂操纵小方块,这是一个人类程序员无法完成的任务——制造这种机械手的公司做这个已经有20年了,现在每年大概才卖出10个,因为没有程序员能实现这样的功能。


所以,你甚至不需要一个完美的模拟器,你只需要一个刚好能够完成手头上任务的模拟器。


我想我们都听过这个说法,人工智能的进步有三大支柱:计算、算法和标记数据。


但是现在,如果你再看一遍这个说法,你会发现“标记数据”其实也不是必要的。


比如今年,自然语言处理(NLP)领域最新研究表明,你可以让一个模型在大量无监督文本上学习,然后使用非常少量的监督数据进行了微调,这样你就能够在各种各样的NLP任务之间设置最先进的技术水平。


所以说,深度学习的极限真的很难被定义。


算力极限


最后,我们再来看看算力极限,这大概是近年来限制AI发展的关键要素之一。


如果我们看看过去六年里发生了什么,就会发现计算经过了一个疯狂爆炸式的增长。每三个半月,我们的算力就会翻一倍。


怎么理解增长速度呢?就像在2012年的时候,你的手机电池只能坚持一天。在2018,它就能坚持800年的时间,到2023年,它能坚持一亿年的时间。


再换一种方式来理解,一个2023年的未来系统在30秒内消耗的计算量,将会相当于我们今天的Dota系统一个月的计算量。


这个数字太疯狂了,看起来有点不可理喻,但是这样的事情其实已经发生了。20世纪90年代的大规模成果之一TD GAM,在一个现代的GPU上计算大约只需要5秒钟。


所以我们把这些事情合起来看,可以得到的结论是:我们也很难去界定算力的极限。


我们真的很难说有什么是做不成的,这意味着我们需要开始积极主动的思考,这些系统将会给世界带来什么样的影响?


在畅想人工智能时,我们应该少依靠直觉,多依靠证据和假设。


我们都在创造自己认为的会对未来产生巨大影响的技术,所以我们要对这事情好好负责!


还没看够?明年的O'Reilly和Intel AI Conference将于2019年6月18-21日登陆北京


大数据文摘作为O'Reilly官方媒体合作伙伴,火热开启征集讲师和议题,想要加入这场全球最IN的AI盛会吗?点击阅读原文了解如何成为大会讲师。


征集截止在即,跑步入场还不晚哦。(报名咨询电话:010-88097476)?


【今日机器学习概念】

Have a Great Definition

志愿者介绍

后台回复志愿者”加入我们

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接