性能比GPU高100倍!华人教授研发全球首个可编程忆阻器AI计算机

百家 作者:AI100 2019-07-19 09:00:44


译者 | 陆离

责编 | 夕颜

出品 | AI科技大本营(ID:rgznai100)

导读:近日,密歇根大学研发成功第一台可编程的忆阻器计算机,它不仅是一个通过外部计算机运行的忆阻器阵列,而且还是可以在智能手机等小型设备上进行 AI 处理的计算机。

              

忆阻器(Memristor,全称记忆电阻器)阵列芯片插入定制的计算机芯片,第一台可编程的忆阻器计算机就此诞生。该研究团队证明了忆阻器计算机可以运行三种标准的机器学习算法。图源:Robert Coelius,密歇根工程学院

 

这台可编程的忆阻器计算机可以直接在类似于智能手机和传感器等能耗受限的小型设备上来进行人工智能处理。智能手机的人工智能处理器意味着语音命令将不再需要发送到云端进行处理,从而加快了请求的响应时间。

 

 “每个人都想在智能手机上安装一个人工智能处理器,但大家都不想让自己的手机电量消耗得太快。”美国密歇根大学电气工程和计算机科学学院教授 Wei Lu这样说道。而在医疗设备中,人工智能算法就无需在云端运行,这可以确保更好的安全性和隐私保密性。


何为忆阻器?


实现可编程忆阻器计算机的关键可能是忆阻器的高级计算机组件。

 

那什么是忆阻器呢?简单来说,这是一个带有存储功能的电阻器,它有着可变电阻,可以作为信息存储的一种方式。由于忆阻器在同一位置进行信息存储和处理,因此可以绕过计算速度和功率的最大瓶颈:内存和处理器之间的通道。

 

用常见的水管来比喻,电流是通过的水量,而电阻是水管的粗细时,当水从一个方向流过去,水管会随着水流量而越来越粗,这时如果把水流关掉的话,水管的粗细会维持不变;反之,当水从相反方向流动时,水管就会越来越细。因为这样的组件会“记住”之前的电流量,因此被称为忆阻器。


忆阻器为何有利于机器学习?


由于忆阻器尺寸小、能耗低,所以能很好地储存和处理信息,一个忆阻器的工作量相当于一枚 CPU 芯片中十几个晶体管共同产生的效用。

 

这对于需要处理大量数据的机器学习算法尤其重要,例如识别照片和视频中的对象,或是预测哪些医院的患者更容易感染等实际问题。程序员已经倾向于在图像处理单元上运行这些算法,而不是在计算机的主处理器和中央处理单元上来运行。

 

Wei Lu 表示:“在功率和吞吐量方面,GPU 和定制化及优化度很高的数字电路的性能是 CPU 的 10 到 100倍,而忆阻器人工智能处理器的性能可能会再提高 10到 100 倍。

 

GPU 在机器学习任务中表现得更好,因为它们有数千个小型的内核可以同时进行计算,而不是等待一个 CPU 中少数几个功能强大的内核来运行这一系列的计算。

 

一个忆阻器阵列甚至可以更进一步,每个忆组器都能进行自己的计算,并且允许在一个内核里同时进行数千次的运算。在这台用于实验的计算机中,有 5800 多个忆阻器,如果是用于商业化的计算机则可能包括数百万个。

 

忆阻器阵列特别适用于解决机器学习领域的问题。这是因为机器学习算法在本质上是把数据转化为向量,即数据点列表。例如,在预测患者在医院里感染的风险时,向量可能以数字的形式列出患者的风险因素。

 

然后,机器学习算法将这些“输入”的向量与存储在内存中的“特征”向量进行比较。这些特征向量表示数据的某些特征(例如潜在疾病的存在几率)。如果相匹配,那么系统就知道输入的数据具有这种特征。向量存储在矩阵中,就像数学中的电子表格一样,这些矩阵可以直接映射到忆阻器的阵列上。

 

更重要的是,当数据通过阵列进行输入的时候,大部分的数学处理过程是通过忆阻器中的自然电阻进行的,这也就消除了为了执行计算而将特征向量移入和移出内存的需要,这使得阵列在复杂的矩阵计算过程中保持很高的效率。

 

早期的研究证明了忆阻器阵列在提高机器学习效率方面的潜力,但它们需要外部的计算组件来发挥作用。


创建可编程的忆阻器计算机


为了创建第一台可编程的忆阻器计算机,Wei Lu 的团队与密歇根大学电子与计算机工程学院的 Zhengya Zhang 副教授、Michael Flynn 教授一起合作,设计出了一种芯片,可以将忆阻器阵列与编程及运行所需的所有其余组件集成在一起,这些组件包括一个传统的数字处理器和通信通道,以及数字与模拟信号的转换器,作为模拟忆阻器阵列和计算机其余部分之间的解释器。

 

接下来,Wei Lu 的团队将忆阻器阵列直接集成到密歇根大学劳瑞纳米加工技术实验室(Lurie Nanofabrication Facility )的芯片上。另外,他们还开发了将机器学习算法映射到忆阻器阵列的矩阵结构上的软件。

 

该团队使用了三个很实用的机器学习算法进行了演示:

 

  • 感知器(Perceptron)用于对信息进行分类,能够 100% 地识别出不完美的希腊字母; 

  • 稀疏编码(Sparse coding)用于对数据进行压缩和分类,尤其是对图像数据,计算机能够找到最有效的方法来重建一组图像,并且能够 100% 地识别出模式; 

  • 双层神经网络(Two-layer neural network)用于在复杂的数据中查找模式,它在乳腺癌筛查数据中发现了其中的共性和区分因素的特征,然后将每一个病例都按照恶性或是良性进行分类,准确率可达到 94.6%。


华人教授领队开发

 

可编程忆阻器计算机是由美国密歇根大学电气工程和计算机科学学院的华人教授 Wei Lu 带队研发。

       照片为 Wei Lu 与第一作者 Seung Hwan Lee 在一起。Seung Hwan Lee 是一名机电工程博士生,手里正拿着一个忆阻器阵列。图片来源:Robert Coelius,密歇根工程学院

 

We Lu 教授的研究方向包括基于双端电阻器件(RRAM)的高密度存储器、忆阻器和忆阻系统、神经形态电路和其他新兴电子器件。他于 1996 年获得清华大学物理学学士和电子与计算机工程学士学位,2003 年获得德克萨斯州休斯顿大学、莱斯大学和德克萨斯大学博士学位。从 2003 年到2005 年,他是马萨诸塞州剑桥市哈佛大学的博士后研究员。他于 2005 年进入密歇根大学,现任密歇根大学劳瑞纳米加工技术实验室教授和主任。

               

同时,他还是 IEEE 研究员,Nanoscale 期刊副主编,并于 2009 年获得 NSF CAREER 奖,2012 年获得 EECS 杰出成就奖,2014-15 获得 Rexford E. Hall 创新卓越奖,2016-2017 获得 David E. Liddle Research Excellent 奖。迄今为止,他已发表了 100 多篇期刊论文,论文引用量达 22,000,其 H 指数为 63(Google Scholar)。此外,他还是 Crossbar Inc 的联合创始人,该公司是一家开发下一代非易失性存储器的硅谷半导体公司。

 

2017 年,Wei Lu 的研究团队曾研究出储备池计算系统(reservoir computing system),并发表在《自然·通信》上。该新型神经网络由忆阻器构成,可以显著提高机器学习人类思维的效率,网络能够在对话期间预测接下来要讲词汇,并能够基于当前对话情况预测结果。

               (图源:领英)


该项目的合作研发者 Zhengya Zhang 同样为电子与计算机工程学院的华人教授 ,资料显示,他在密歇根大学从事研究已超过 9 年。


忆阻器商业化前景


Wei Lu 的研究团队表示,在忆阻器的商业应用拓展层面,目前还存在着一些挑战,它还达不到该团队所期望的目标,而且存储在阵列中的信息也不是完全可靠的,因为它是在模拟的连续介质上运行,并不是以数字形式,这些都是 Wei Lu 团队未来的研究方向。

 

目前,Wei Lu 计划将这项技术商业化。该项研究的课题为“一种完全集成的可重编码的忆阻器 —— 用于高效的乘积-累加运算的CMOS系统”。该研究由美国国防部先进研究项目局、应用驱动架构中心和美国国家科学基金会进行资助。

 

原文链接:

https://news.umich.edu/first-programmable-memristor-computer-aims-to-bring-ai-processing-down-from-the-cloud/


(*本文为 AI科技大本营编译文章,转载请联系 1092722531



精彩推荐




推荐阅读

你点的每个“在看”,我都认真当成了喜欢

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接