Datawhale干货 译者:张贤,哈尔滨工程大学,Datawhale原创作者本文约16000字,是NLP专栏第一篇,建议收藏阅读审稿人:Jepson,Datawhale成员,毕业于中国科学院,目前
选自OpenReview机器之心编译机器之心编辑部Transformer 用在图像识别上会存在计算效率过低的挑战,最近一篇向 ICLR 2021 大会提交的论文似乎很好地解决了这一问题,其研究的 Py
新智元报道 编辑:白峰【新智元导读】能看图会说话的AI,表现还超过了人类?最近,Azure悄然上线了一个新的人工智能服务,能精准的说出图片中的内容。而背后的视觉词表技术,更是超越了基于Trans
机器之心报道机器之心编辑部在计算机视觉领域中,卷积神经网络(CNN)一直占据主流地位。不过,不断有研究者尝试将 NLP 领域的 Transformer 进行跨界研究,有的还实现了相当不错的结果。近日,
作者:PRATEEK JOSHI 翻译:陈之炎 校对:王晓颖本文约1800字,建议阅读8分钟。每隔一段时间,一些新的机器学习的框架或者库就会改变整个领域的格局。今天,Facebook开源了-DET
机器之心报道参与:Racoon、杜伟、张倩自 2017 年被提出以来,Transformer 已经席卷了整个 NLP 领域,红极一时的 BERT、GPT-2 都采用了基于 Transformer 的架
十三 发自 凹非寺量子位 报道 | 公众号 QbitAI近年来,基于Transformer的模型,可以说是在NLP界杀出了一片天地。虽然在提高模型模型精度上,Transformer发挥了不容小觑的作用
出品 | AI科技大本营(ID:rgznai100)4月24日,腾讯正式宣布开源Transformer推理加速工具TurboTransformers。该工具面向自然语言处理领域中Transformer
栗子 发自 凹非寺量子位 报道 | 公众号 QbitAI如今,语言模型的世界,几乎被Transfor
机器之心专栏论文作者:Shiliang Zhang、Lei Ming、Zhijie Yan语音领域顶