从第一人称视角理解世界,多模态模型离我们还有多远?| CVPR 2024

大数据文摘受权转载自将门创投
目前很多评测工作探究视觉语言大模型在不同维度上的能力,但都忽视了真实世界中非常重要的一点:未来作为智能体或机器人的大脑,多模态模型应当具备从第一人称视角理解世界的能力。针对以上问题,清华大学提出了第一人称视角的视觉问答基准数据集——EgoThink,相关论文被人工智能顶级国际会议CVPR 2024录用。EgoThink数据集定义了在真实世界中从第一人称思考时所需的六种核心能力,并评估了十八个主流的视觉语言大模型的表现。评测结果显示,目前阶段的视觉语言大模型从第一人称视角进行思考的能力仍有显著欠缺,即使是GPT-4V模型在所有任务上的平均分也仅为65.5(满分100)。


论文标题: Can Vision-Language Models Think from a First-Person Perspective? 论文链接: https://arxiv.org/abs/2311.15596 项目主页: https://adacheng.github.io/EgoThink/ 代码链接: https://github.com/AdaCheng/EgoThink 数据集链接: https://huggingface.co/datasets/EgoThink/EgoThink
一、研究背景
二、数据集构建
三、模型评测 评测方式
新上线一批4090/A800/H800/H100
特别适合企业级应用



关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 奋进中原 7904627
- 2 朱媛媛住院治疗照曝光 7809621
- 3 日本选手战胜国乒后激动捂脸痛哭 7712361
- 4 外国游客“买买买” 中国购更火了 7617728
- 5 李乃文换蜡烛头像 与朱媛媛是至交 7520192
- 6 全国跳水冠军赛 全红婵退赛 7424409
- 7 观众问朱媛媛 辛柏青2秒停顿太催泪 7329623
- 8 特朗普会见南非总统时起争执 7238855
- 9 美股三大指数均创一个月来最大跌幅 7139796
- 10 为什么越来越多年轻人患癌 7045110