Hello大家好,我叫王自由,是Hugo的朋友,之前在斯坦福念的硕士方向和目前在国内的创业方向都跟人工智能有关。最近以ChatGPT为代表AI大模型在国内引发了大量的讨论,相关创投领域也呈现出勃勃生机万物竞发的境界,被英伟达创始人黄仁勋视为又一个“Iphone时刻”,比尔·盖茨发文表示“就像第一次看到图形界面操作系统”。但为什么这样一个跨时代的发明不是来自Google,百度或者Facebook这样深耕AI多年的巨头,而是来自OpenAI这个小创业团队呢?最近做了很多关于ChatGPT的研究,感叹技术发展之快。因为我在2019年前后接触过NLP(自然语言处理)的研究,当时身边的朋友普遍的论调都是“相比CV视觉领域,NLP还需要10年才能应用”,现在看来真是目光短浅了。如今4年过去了,语言模型能处理的问题大大超出了我们的理解,落下4年的功课,最近重新研究,发现所谓的“大力出奇迹”(堆参数量和训练量)不能完全概括OpenAI这群人在技术路径选择的远见和坚持。如果大家能细品这几年NLP领域技术发展之路,或许,会更感叹这群人的努力是多么珍贵。我们把时间拉回到最早的语言模型身上。那时候最有效的模型应该就属RNN循环神经网络,我们不去深究其中的细节原理,只从物理直觉角度阐述这一类模型的特点。这一类模型主要是利用了语言中的前后次序关系来预测。“他好像一条狗”,“狗”这个词的预测依赖于之前的词,所以在模型的架构上,就是“循环结构”,下一个变量依赖于上一个变量。这一类模型在时序数据上面的表现很不错,时序数据不仅有语言,还包括了股票等数据集。这非常符合人类的直觉,但是也有不少问题,第一,随着模型层数的增加,最早的数据会被淹没,词与词之间的关系无法被有效考量,第二,无法并行计算,模型能够处理的数据量有限,由于模型中的次序关系存在,无法像图片一样用GPU并行计算,限制了模型大小,第三,只能用在特定的学习任务上,比如说做翻译的模型,不能用来做文字生成。一切的开始,Attention和TransformerGPT包括后续很多技术的开始其实都始于Google。2017年,Google的研究员发表了一篇影响非常深远的文章《Attention is All You Need》,提出了Transformer模型,这也目前大多数语言模型的基石架构。从直觉来理解其实非常简单。他们认为人类在说话的时候,每一个词和其他词有关联,就像人的注意力一样。我们看下面这张图更好理解,下图中输出的"it"和左侧的关系强弱可以通过颜色深浅看出来,那么这种机制可以被赋予权重从而应用在神经网络之中。通过这样的注意力机制,语言模型就可以脱离开RNN结构,粗暴地甩开了之前大家常用的模型网络。算法的效果很不错,而且设计上非常精巧。这里我想提一个很有趣的现象,笔者亲历,当时很多的科研人员尝试研究路径是将Transformer和RNN结合,效果确实也会变得更好,但是现在来看,这一个方向就是死胡同,所以回过头来看这段时间,会有不一样的体悟。2018年前后,OpenAI开始发力了,他们发表了第一个GPT模型。同时代,Google也发表了BERT模型。下面是当时最火的三个模型。可惜的是,BERT在很多问题上的表现优于GPT-1。这也是为什么Google没有发明ChatGPT,资本市场如此失望的原因。我们先说说BERT和GPT-1这两个模型到底比之前的好在哪儿,我觉得这也是OpenAI一群人搞明白技术路线的一年。首先我们要知道传统的机器学习,你需要标注好的数据,比如说,我想要训练一个判断人类情绪的算法,我需要给机器数据,“input:我不开心,output:负面情绪”,这样的模型就有个巨大的问题,就是标准好的数据非常少,也很依赖人工,但是语言模型里面大多数数据都是没有被标注的,比如知乎上大部分的语料,都是没有output的,只有输入。如果纯依赖人工,大数据量是不能完成的。这时候,BERT和GPT-1提出一种思路,就是通过这些文字本身进行学习,不用额外再进行标注。BERT是抓取一段话“他好像狗”,随机把其中的词遮挡住,“他[mask]像狗”,让模型去预测遮挡住的词是什么;而GPT-1则是把下一个词遮挡住,只给出上文让机器去预测,总而言之,这样就可以利用起网络上绝大多数的数据去训练模型。这一步就是他们的预训练过程。在预训练结束之后,BERT和GPT-1会在特定的任务下面进行进一步的训练达到更好的效果,比如会再用翻译的数据去训练一遍模型。有点像人先学拼音,而后再去写作文一样。当然,BERT和GPT-1还有模型结构的差异这里暂时不提。这时候GPT-1的风头绝对不如BERT,我记得我们当时学NLP的课程,老师特意让我们一起去读了BERT,而GPT-1我当时都没怎么好好研究过。再加上BERT主要用于自然语言理解任务,如问题回答、文本分类、句子关系分析等,它可以理解文本中的语义和关系,并能够找出语句之间的联系,这些应用场景本身也非常明确,可以为公司带来价值。而GPT擅长的文本生成的场景,大厂们都非常质疑,因为AI生成文本总是会胡言乱语,如果大厂推出胡言乱语的AI产品,显然对口碑是非常不好的。总结一下,目前的GPT-1,只能用在特定场景,但是模型的框架、设计的思路,已经是一流的了。这时候OpenAI的团队提出一个非常有远见的科研直觉,他们认为语言模型应该处理多任务而不是单一任务。举个例子,如果机器阅读过“2017年Google发表了Attention机制相关的论文”,那么对于“Attention机制是由Google在哪一年发表的”就应该能够回答,不需要再额外去做训练了,而GPT-1在预训练结束之后,还要Q&A的专项培训。他们认为机器应该理解人类语言。这就是科研人员的直觉和坚持了。我想这里面不仅仅是模型变得更深参数变得更多了,更多的是他们对于语言模型本质的思考,很多时候单纯的说别人”大力出奇迹“可能是心理安慰,忽略了他们在底层的思考。回到我们的主题,GPT-2的最大贡献是验证了通过海量数据和大量参数训练出来的模型,可以适用于多个不同的任务而不需要额外的训练。尽管对于某些问题,当时GPT-2的表现的甚至还不如随机回答,但是它在7个数据集中的表现,超过了当时最好的模型。值得一提的是,GPT-2的模型结构本质上和GPT-1差别不是很大。随后的事情大家就知道了,有了这样的底层认知和经验,GPT-3发表时,GPT-3就是目前最强大的语言模型。除了几个常见的NLP任务,GPT-3还在很多非常困难的任务上也有惊艳的表现,例如撰写人类难以判别的文章,甚至编写SQL查询语句代码等。而这些强大能力的实现则依赖于GPT-3疯狂的1750 亿的参数量, 45TB的训练数据以及高达1200 万美元的训练费用。这里面不仅仅是所谓的“大力出奇迹”,这群科研工作者对于语言模型的本质思考可一点儿不少。不然,谁敢花这么多钱去训练呢。GPT-3的模型参数、训练数据和工作量都是惊人的,论文署名多达31个作者,所有实验做下来花费的时间和财力肯定是非常巨大的,即便是当时模型似乎还有bug和信息泄露的风险,OpenAI也没有重新训练。提个小八卦,大家去翻一下GPT-4的报告(他们把论文取名为:GPT-4 Technical Report)。99页的论文啊,硬是一点技术细节都不讲,全是在秀肌肉。大家再看看这个参与人员名单,这才是人才和科技霸权最直观的体现。我们当时那群研究过NLP的朋友们,还在这个领域搞研究的就剩一个人,这也是人才稀缺最直观的体现。归根结底,很多时候风口不是追出来的,是人创造出来的,是真的喜欢、真的相信才会坚持。要是有人5年前跟我说,我要训练一个超大型的模型,然后可以处理所有的语言问题,从翻译到生成作文,我一定会觉得这个人脑子有问题,但是细细深究了OpenAI研究之路,我们会觉得一切也不是那么不可理解。旁人难以理解的坚守背后,一定是非常人所及的认知高度。所以说,技术发展或者说人类创新发展,它的功利心是很小的,那些很功利的下场,都不是很好,比如历史进程中的电子管小型化、GPU的发展。找到内心所爱,持之以恒、不求回报、自由驰骋。酷玩实验室经授权转载
如需转载,请联系原作者
分享给朋友或朋友圈请随意
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/