TPU 3.0,Android P...Google带来了哪些惊喜?
作者 | DavidZh,阿司匹林
出品 | AI科技大本营(公众号ID:rgznai100)
北京时间 5 月 9 日凌晨, Google I/O 2018 开发者大会的 7000 人会场又一次座无虚席。因为 Google 的“AI First”已经进入第三年,而今年是 AI 落地的关键时期,因此 Google 的一举一动备受关注。
就在大会前夕,Google 宣布将 Google Research 与 Google.ai 合并,推出全新的 Google AI 项目,它将涵盖包括人工智能在内的所有前沿技术研究,足见 Google 对 AI 的重视。
在此次大会上,性能大幅提升的第三代 TPU,更加智能的 Google Assistant,带屏幕的智能音箱,融入了各种 AI 特性的 Android P,加强版的 Google Lens,以及研发了接近 10 年的无人车轮番登场。
Google 持续多年对 AI 的投入,到底能给我们带来多少惊喜?
▌TPU 3.0
在本次开发者大会上,Google 推出了第三代 TPU。据介绍,由 TPU 3.0 组成的 TPU Pod 运算阵列,性能相比上一代提升了 8 倍,可提供 100 petaflops(千万亿次) 的机器学习硬件加速。为了给这个性能怪兽降温,Google 甚至引入了液冷技术。
而就在前不久,Google 刚刚推出了 TPU Cloud 服务。看来在 AI 芯片领域,Google 是准备大干一场了。
▌Google Assistant
去年被亚马逊 Alexa 拉开差距后,Google 用了一年多时间来追赶。现在,智能助理 Google Assistant 已经进入了 5 亿台设备,支持 5000 种终端产品。
利用去年实现重大突破的 WaveNet 深度生成模型,新版 Google Assistant 拥有六种声音可选,听起来都比现在的版本更加真实自然。美国知名歌手 John Legend 也为 Google Assistant 录制了自己的声音版本,不久的将来就能上线。
语音交互上,新版 Google Assistant 支持多轮对话,不用每次都说一遍“Hey Google”唤醒词,稍微长一点的句子也可以正确理解并给出响应。
Google Assistant 还增加了 Multiple actions 功能, 即一句语音指令中可以同时包含多条任务,Google Assistant 会将不同任务拆解开,分别执行。
在语音交互的基础上,Google Assistant 扩展了视觉交互能力。首先是 Google 在今年 CES 上跟联想等硬件厂商合作的 Smart Display 项目,相当于给智能音箱加一块触摸屏。不过早在去年 5 月,Amazon 就已经推出了带屏幕的智能音箱 Echo Show,整整领先了 Google 一年。
现场演示中,这块屏幕可以播放视频、显示菜单和烹饪步骤,看起来比较适合厨房或卧室的使用场景,当然也可以视频通话。Google 宣布由 JBL、联想、LG 三家生产的带屏智能音箱将于今年 7 月开售。
在手机端,Google Assistant 作为智能助理也增加了视觉辅助功能。比如,用语音问及某个歌手时,它会自动显示歌手的照片和作品链接;调节室内温度时会显示一个圆形调节控件。如果用语音唤醒 Google Assistant 叫外卖,也会在手机上显示出具体食品的图片信息。
更厉害的是,Google Assistant 还加入了电话预约功能。现场演示中,Google Assistant 分别成功约好了一家理发店和餐厅。整个流程并不复杂,先由用户告知 Google Assistant 时间、地点、就餐人数等信息,再由 Google Assistant 跟餐厅的服务员电话沟通并预约。这样一来,就省去了用户本人打电话约餐馆的时间。
虽然通过电话来预约餐馆对人来说并不是一件难事,但是对机器来说却异常困难。从现场的演示视频来看,Google Assistant 与接线员的沟通过程十分流畅,这一点实属不易。
▌Android P
Android 操作系统进入第十年,新的 Android P 还是在小修小改,主要用 AI 来改善电池续航、日常使用效率等体验。
具体来说,Google 与旗下 AI 子公司 DeepMind 一起开发的 Adaptive Battery 技术,可以学习用户使用手机的习惯,从而预测在接下来的某段时间里哪些高频应用最可能被启动,同时忽略那些不太可能用到的应用。Google 声称,这个功能减少了 30% 的 CPU 唤醒,从而延长了续航时间。
在 Android P 中,Google 还加入了新的 App Actions 功能。使用搜索框查找内容时,系统会根据相关性和应用使用情况用 AI 来预测用户的具体需求。比如,搜索打车服务 Lyft,结合时间和地点可能意味着用户要回家了,从而直接将结果预览出来,点一下即可叫车。
对于开发者来说,实现这类功能需要借助新的 Slices API 接口,它可以让开发者在负一屏、搜索预结果等页面显示出 AI 的预测能力。
考虑到开发者对不同接口的需求可能多种多样,Google 索性开发出了一套 ML Kit 工具包。它允许开发者使用 Firebase 平台自定义机器学习 API 接口。值得一提的是,ML Kit 同时兼容 Android 和 iOS。
与此同时,Google 还启动了 Android P Beta 测试计划,率先支持的手机厂商包括 Pixel、Nokia、Essential、小米、OPPO、vivo、OnePlus。四家中国手机厂商将公布各自的测试计划。
▌Google Lens
利用机器学习增强手机视觉能力的 Google Lens 今年也得到加强。Google 宣布 Google Lens 将会内置到 LG、小米、一加、TCL 等厂商的系统相机应用中,其中刚刚发布不久的 LG G7 将率先支持。这意味着,这些品牌的默认相机应用也能提供实时拍照翻译、商品识别等功能了。
具体到新增功能上,Google Lens 支持了 Smart Text Selection,即点选照片中的某一个字段可以快速翻译或复制粘贴,而不再局限于文本文档。
Style match 则是针对穿衣搭配或家居场景,利用机器学习算法识别摄像头捕捉到的物体,并根据物体特征进行相关的商品推荐。
▌Waymo
现场,Waymo 提到了自动驾驶汽车需要具备的两个特性:感知(perception)和预测(prediction)。
具体到自动驾驶的技术选型上,Waymo 仍然坚持激光雷达、超声波雷达、毫米波雷达、摄像头等多传感器融合的方案。在行人车辆监测的感知层面,Waymo 利用深度学习算法将错误率降低了 100 多倍。现场图片显示,Waymo 的无人车甚至能够探测到身穿恐龙服装的行人。
从 2009 年开始路测到现在,Google 的自动驾驶车已经累计完成了 600万英里的开放道路测试;通过模拟仿真环境训练自动驾驶算法的里程数也超过 50 亿英里。
得益于 Google 研发的推理处理器 TPU,自动驾驶相关的数据处理、算法训练和模型构建在 TPU 上比传统平台效率要提高 15 倍。
Waymo 表示,深度学习结合其他技术,Waymo 可以实现 Level 5 级别的全自动驾驶。预计 2018 年晚些时候,Waymo 将在亚利桑那州的凤凰城推出没有安全监督员的无人车搭乘服务。
▌结语
从开场到结束,Google 发布的所有产品,推出的所有新功能,都和 AI 密切相关。看上去,Google 的“AI First”战略改成“AI in All”或许更为合适。
AI科技大本营现招聘AI记者和资深编译,有意者请将简历投至:gulei@csdn.net,期待你的加入!
AI科技大本营读者群(计算机视觉、机器学习、深度学习、NLP、Python、AI硬件、AI+金融、AI+PM方向)正在招募中,和你志同道合的小伙伴也在这里!关注AI科技大本营微信公众号,后台回复:读者群,添加营长请务必备注姓名,研究方向。
☟☟☟点击 | 阅读原文 | 查看更多精彩内容
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 习近平向亚太经合组织峰会发表演讲 7928057
- 2 中铁七局道歉 7969655
- 3 俄飞行员:单枪匹马来 独自驾机回 7835317
- 4 中国对亚太经济增长贡献率达64.2% 7798371
- 5 成龙呼吁大家到电影院看电影 7654623
- 6 郑钦文已解散粉丝群 7511738
- 7 国足补召王振澳备战日本 7440754
- 8 39岁C罗倒钩 7370733
- 9 女孩坠河 疑母亲和哥哥营救双双溺亡 7281895
- 10 小行业潜藏“大能量” 7138153