没想到,在大模型时代,知名「AI 教母」李飞飞也要「创业」了,并完成了种子轮融资。据路透社独家报道,著名计算机科学家李飞飞正在创建一家初创公司。该公司利用类似人类的视觉数据处理方式,使人工智能能够进行高级推理。知情人士透露称,李飞飞最近为这家公司进行了种子轮融资,投资者包括硅谷风险投资公司 Andreessen Horowitz,以及她去年加入的加拿大公司 Radical Ventures。不过,Andreessen Horowitz 和 Radical Ventures 的发言人均对此保持沉默,李飞飞也未作回应。李飞飞被誉为「人工智能教母」,此称号源自「人工智能教父」称谓,通常用来致敬三位在计算机科学领域取得卓越成就的开拓者 —— 杰弗里・辛顿(Geoffrey Hinton)、约书亚・本吉奥(Yoshua Bengio)和杨立昆(Yann LeCun)。他们因在 AI 技术方面的突破于 2018 年获得计算机界的最高奖项图灵奖。李飞飞的成名作是开发了一个名为 ImageNet 的大规模图像数据集,该数据集帮助开创了第一代能够可靠识别物体的计算机视觉技术。李飞飞还是斯坦福大学以人为中心人工智能研究所(Human-Centered AI Institute)的联合主任。该所专注于以 「改善人类状况」 的方式发展 AI 技术。除了学术工作外,李飞飞在 2017 年至 2018 年期间领导了谷歌云的 AI 部门,担任过 Twitter 董事会成员。李飞飞曾对人工智能研究方面存在的资金缺口表示遗憾。她指出,尽管私营部门资源丰富,但学术界和政府实验室的资金支持仍捉襟见肘。她呼吁美国政府拿出「登月思维」,投资于这项技术的科学应用及其风险研究。
据李飞飞的斯坦福简历显示,她从 2024 年初到 2025 年底处于「Partial Leave」状态。她的研究兴趣涵盖了「认知启发的 AI」、「计算机视觉」和「机器人学习」等领域。在职业社交网站领英上,李飞飞将自己的当前工作状态描述为「新手」和「新事物」,从 2024 年 1 月开始。此次创业,李飞飞卷入了最热门的 AI 公司之间的竞争:教导算法具备常识,以克服当前技术的局限性,如大语言模型可能产生的幻觉。许多人认为,这种「推理」能力必须先建立起来,然后人工智能模型才能实现通用人工智能(AGI),即系统能够像人类一样或更胜一筹地执行大多数任务。一些研究人员认为,他们可以通过构建更大、更复杂的模型来提高推理能力,而其他人则认为,未来的道路涉及使用新的「世界模型」,这些模型可以吸收来自周围物理环境的视觉信息,以发展逻辑,复制婴儿的学习方式。在介绍这家初创公司时,一位消息人士引用了李飞飞上个月在温哥华 TED 会议上的一次演讲。她在演讲中表示,该前沿的研究涉及一种可以合理地推断出图像和文字在三维环境中的样子的算法,并根据这些预测采取行动,这种算法概念叫做「空间智能」。为了进一步解释「空间智能」这一概念,她展示了一张猫伸出爪子将玻璃杯推向桌子边缘的图片。她表示,在一瞬间,人类大脑可以评估「这个玻璃杯的几何形状,它在三维空间中的位置,它与桌子、猫和所有其他东西的关系」,然后预测会发生什么,并采取行动加以阻止。她说:「大自然创造了一个以空间智能为动力的观察和行动的良性循环。」她还补充说,她所在的斯坦福大学实验室正在尝试教计算机「如何在三维世界中行动」,例如,使用大型语言模型让一个机械臂根据口头指令执行开门、做三明治等任务。
这让人联想到2023年李飞飞公布的研究VoxPoser以及VIMA 机器人智能体。
VoxPoser将大模型接入机器人,可在无需额外数据和训练的情况下,将复杂指令转化为具体的行动。
而VIMA 智能体能像 GPT-4 一样接受多模态的(文本、图像、视频或它们的混合 )Prompt 输入,然后输出动作,完成指定任务。
我们也可以进一步回顾李飞飞近期的一些其他相关研究。例如,今年1月份,李飞飞在 X 上推广了一篇有关 3D 人体渲染工作的新进展 —— 一种名为 Wild2Avatar 的新模型,该模型即使在有遮挡的情况下仍然能够完整、高保真地渲染人体。在此之前,李飞飞领导的一个多学科联合团队也曾发表研究,提出了一种通用型的智能 BRI 系统 NOIR(Neural Signal Operated Intelligent Robots / 神经信号操控的智能机器人),可以脑控机器人做家务,例如烹饪、熨衣服、玩游戏等。期待李飞飞的创业公司,能为 AI 社区带来新的惊喜。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/