从第一人称视角理解世界,多模态模型离我们还有多远?| CVPR 2024

大数据文摘受权转载自将门创投
目前很多评测工作探究视觉语言大模型在不同维度上的能力,但都忽视了真实世界中非常重要的一点:未来作为智能体或机器人的大脑,多模态模型应当具备从第一人称视角理解世界的能力。针对以上问题,清华大学提出了第一人称视角的视觉问答基准数据集——EgoThink,相关论文被人工智能顶级国际会议CVPR 2024录用。EgoThink数据集定义了在真实世界中从第一人称思考时所需的六种核心能力,并评估了十八个主流的视觉语言大模型的表现。评测结果显示,目前阶段的视觉语言大模型从第一人称视角进行思考的能力仍有显著欠缺,即使是GPT-4V模型在所有任务上的平均分也仅为65.5(满分100)。


论文标题: Can Vision-Language Models Think from a First-Person Perspective? 论文链接: https://arxiv.org/abs/2311.15596 项目主页: https://adacheng.github.io/EgoThink/ 代码链接: https://github.com/AdaCheng/EgoThink 数据集链接: https://huggingface.co/datasets/EgoThink/EgoThink
一、研究背景
二、数据集构建
三、模型评测 评测方式
新上线一批4090/A800/H800/H100
特别适合企业级应用



关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 植树就是植未来 7998267
- 2 DeepSeek眼中不会被AI替代的职业 7939270
- 3 9000万别墅降到1500万?业内回应 7862796
- 4 哪些行业人才火爆就业市场 7747131
- 5 外卖小哥救醒醉酒路人后放声大哭 7661912
- 6 实探大疆总部:21点楼下人头攒动 7537385
- 7 #金秀贤与未成年恋爱是恋童癖嘛# 7468076
- 8 陕西一医院被曝“偷换”新生儿 7350218
- 9 杨铭宇黄焖鸡被曝剩菜回收再加工 7295708
- 10 体重门诊到底能干啥 7167076