从第一人称视角理解世界,多模态模型离我们还有多远?| CVPR 2024

大数据文摘受权转载自将门创投
目前很多评测工作探究视觉语言大模型在不同维度上的能力,但都忽视了真实世界中非常重要的一点:未来作为智能体或机器人的大脑,多模态模型应当具备从第一人称视角理解世界的能力。针对以上问题,清华大学提出了第一人称视角的视觉问答基准数据集——EgoThink,相关论文被人工智能顶级国际会议CVPR 2024录用。EgoThink数据集定义了在真实世界中从第一人称思考时所需的六种核心能力,并评估了十八个主流的视觉语言大模型的表现。评测结果显示,目前阶段的视觉语言大模型从第一人称视角进行思考的能力仍有显著欠缺,即使是GPT-4V模型在所有任务上的平均分也仅为65.5(满分100)。


论文标题: Can Vision-Language Models Think from a First-Person Perspective? 论文链接: https://arxiv.org/abs/2311.15596 项目主页: https://adacheng.github.io/EgoThink/ 代码链接: https://github.com/AdaCheng/EgoThink 数据集链接: https://huggingface.co/datasets/EgoThink/EgoThink
一、研究背景
二、数据集构建
三、模型评测 评测方式
新上线一批4090/A800/H800/H100
特别适合企业级应用



关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 习近平向美国匹克球访华团回复口信 7904616
- 2 地震频发 日本第二批岛民撤离避难 7809416
- 3 郭晶晶问为何叫山东舰 权威解答来了 7713850
- 4 热浪来袭 如何做好防护 7616917
- 5 壶口瀑布再现50元人民币上的壮阔 7521738
- 6 中国网评论:砸窗非“英雄之举” 7425056
- 7 宣布成立"美国党"后 马斯克再发声 7329319
- 8 60岁张曼玉巴黎被偶遇 7232873
- 9 毕业即失业 无人机培训该降虚火了 7137944
- 10 王晶曝张曼玉秘闻:她当年也是花瓶 7041516