从第一人称视角理解世界,多模态模型离我们还有多远?| CVPR 2024

大数据文摘受权转载自将门创投
目前很多评测工作探究视觉语言大模型在不同维度上的能力,但都忽视了真实世界中非常重要的一点:未来作为智能体或机器人的大脑,多模态模型应当具备从第一人称视角理解世界的能力。针对以上问题,清华大学提出了第一人称视角的视觉问答基准数据集——EgoThink,相关论文被人工智能顶级国际会议CVPR 2024录用。EgoThink数据集定义了在真实世界中从第一人称思考时所需的六种核心能力,并评估了十八个主流的视觉语言大模型的表现。评测结果显示,目前阶段的视觉语言大模型从第一人称视角进行思考的能力仍有显著欠缺,即使是GPT-4V模型在所有任务上的平均分也仅为65.5(满分100)。


论文标题: Can Vision-Language Models Think from a First-Person Perspective? 论文链接: https://arxiv.org/abs/2311.15596 项目主页: https://adacheng.github.io/EgoThink/ 代码链接: https://github.com/AdaCheng/EgoThink 数据集链接: https://huggingface.co/datasets/EgoThink/EgoThink
一、研究背景
二、数据集构建
三、模型评测 评测方式
新上线一批4090/A800/H800/H100
特别适合企业级应用



关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 “始终绷紧粮食安全这根弦” 7904733
- 2 暴雨大暴雨要来了 7808588
- 3 河南培育出156.47克拉全球最大钻石 7713226
- 4 看中国如何守住每一粒米 7616434
- 5 “村长”李锐已从湖南卫视离职 7520708
- 6 地球达到首个气候临界点意味什么 7427545
- 7 上海机场2名外国人躺卧霸占6个座 7330287
- 8 顾客卖出500克黄金1天赚近5万 7238399
- 9 缅北刘家:果敢老街东城大多是我地盘 7136763
- 10 大牌设计“撞脸”长沙雅礼校服 7047586