news 2026/5/12 6:04:51

【中国科学技术大学-吴枫-ICLR26】CapRL: 通过强化学习激发密集图像描述能力

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【中国科学技术大学-吴枫-ICLR26】CapRL: 通过强化学习激发密集图像描述能力

文章:CapRL: Stimulating Dense Image Caption Capabilities via Reinforcement Learning

代码:https://github.com/InternLM/CapRL

单位:中国科学技术大学、上海人工智能实验室、香港中文大学、上海创新研究院、阿里云


一、问题背景

图像描述(给图片写文字说明)是连接视觉与语言的核心任务,不管是训练大型视觉语言模型,还是落地到图文检索、无障碍辅助等场景都离不开它。但目前主流的训练方法(监督微调SFT)存在明显短板:一方面要依赖大量人工或专有模型标注的数据,成本高还难扩展;另一方面模型会死记硬背固定描述,没法灵活生成多样化、有创意的内容。更关键的是,“好的图片描述”本身很主观,之前的评估方法要么容易被模型“钻空子”(比如故意写冗长或简短的文字讨好评价模型),要么没法准确衡量复杂描述的质量,导致模型进步受限。

二、方法创新

研究团队提出了一种名为CapRL的新框架,核心是把“主观的描述质量”变成“客观的可验证指标”,用强化学习(RLVR)思路解决问题,具体分两大关键点:

  1. 两阶段分离流程:先让视觉语言模型(LVLM)生成图片描述,再让一个“看不见图片”的纯语言模型(LLM),仅根据这个描述回答关于图片的多选题。纯语言模型的答题准确率,就是给生成描述的“客观奖励”——描述越全面准确,答题正确率越高,奖励就越多。

  2. 高质量数据支撑:构建了包含75k图像和对应多选题的数据集,确保问题必须靠分析图片内容才能回答,避免“靠常识答题”的情况;还打造了CapRL-5M数据集,用训练好的CapRL-3B模型给500万张图片标注描述,兼顾多样性和质量。

  3. 细节优化:为了避免偏见,每次提问都会打乱选项顺序;通过多次采样提问取平均,保证奖励的稳定性,让模型专注于提升描述质量而非钻漏洞。

三、实验结果

CapRL的表现让人惊喜,不管是数据规模还是模型能力都实现了突破:

  1. 数据集效果突出:用CapRL-1M(从5M数据中随机抽取)做预训练,在InfoVQA、DocVQA等12个基准测试中,大幅超越现有主流数据集,其中InfoVQA上比DenseFusion-1M高出6.8%。当数据扩大到5M时,性能还在稳步提升,展现出极强的扩展性。

  2. 模型能力越级:CapRL-3B(仅30亿参数)的描述质量,在Prism评估框架下堪比720亿参数的Qwen2.5-VL-72B,平均比基础模型高出8.4%;在图表、信息图理解上优势更明显,ChartQA、InfoVQA等任务的提升幅度均超过10%。

  3. 泛化能力强劲:哪怕只在图表类或自然图像类单一领域训练,CapRL也能在其他领域的测试中取得显著进步,不用专门适配就能应对多种场景。

四、优势与局限

优势

  1. 摆脱标注依赖:不用大量人工标注,靠模型自动生成高质量描述数据集,成本低且可扩展。

  2. 描述质量过硬:生成的内容更全面、准确,减少“凭空捏造”的情况,不管是自然图像还是复杂图表、信息图都能hold住。

  3. 奖励客观可靠:避免了传统评估的主观偏见和“奖励漏洞”,让模型真正朝着“提升描述实用性”的方向优化。

  4. 效率超高:哪怕每张图片只配1个多选题,也能让模型性能大幅提升,训练和部署成本可控。

局限

  1. 依赖高质量多选题:奖励的可靠性完全基于多选题的质量,若问题设计不合理,可能影响模型优化方向。

  2. 计算成本略高:两阶段流程需要额外调用纯语言模型做答题评估,相比单阶段生成,推理时耗时稍长。

  3. 极端场景适配不足:对于超复杂或抽象的图像,多选题可能难以覆盖所有关键信息,导致描述质量提升受限。

五、一句话总结

CapRL通过“描述生成+答题验证”的两阶段强化学习框架,把主观的图片描述质量转化为客观奖励,既解决了传统方法依赖人工标注、描述单一的问题,又实现了模型能力的越级提升,为视觉语言模型的预训练和图像描述任务提供了更高效、更可靠的新方案。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 16:10:02

Qwen3-32B多模态扩展潜力:Clawdbot平台未来支持图文混合问答架构预演

Qwen3-32B多模态扩展潜力:Clawdbot平台未来支持图文混合问答架构预演 1. 当前集成架构:Qwen3-32B如何接入Clawdbot对话平台 Clawdbot平台当前已实现与Qwen3-32B大语言模型的深度对接,形成一套轻量、可控、可扩展的私有化AI服务链路。整个流…

作者头像 李华
网站建设 2026/5/11 13:26:57

亲测SenseVoiceSmall镜像,上传音频秒出情感+事件识别结果

亲测SenseVoiceSmall镜像,上传音频秒出情感事件识别结果 你有没有过这样的经历:会议录音堆成山,却没人愿意听;客服通话里藏着大量情绪线索,却只能靠人工抽查;短视频素材里突然响起的掌声、笑声、BGM&#…

作者头像 李华
网站建设 2026/5/12 1:39:07

Clawdbot部署教程:基于Ollama私有化运行Qwen3-32B的GPU显存优化方案

Clawdbot部署教程:基于Ollama私有化运行Qwen3-32B的GPU显存优化方案 1. 为什么需要这个部署方案 你是不是也遇到过这样的问题:想在本地跑一个真正强大的大模型,比如Qwen3-32B,但一启动就报显存不足?明明显卡有24G&am…

作者头像 李华
网站建设 2026/5/11 4:44:59

产品手册秒变智能助手?WeKnora应用全解析

产品手册秒变智能助手?WeKnora应用全解析 你是否遇到过这些场景: 客户突然来电问“这款设备的保修期从哪天开始算?”——而你手边只有200页PDF版《售后服务指南》; 新同事入职第一天,被要求快速掌握《内部报销流程V3.…

作者头像 李华
网站建设 2026/5/11 4:36:49

Pi0模型部署教程:nohup后台运行+app.log日志结构化分析方法

Pi0模型部署教程:nohup后台运行app.log日志结构化分析方法 1. 为什么需要Pi0?一个能“看懂”并“指挥”机器人的模型 你有没有想过,让机器人像人一样——先用眼睛观察环境,再听懂你的指令,最后精准执行动作&#xff…

作者头像 李华
网站建设 2026/5/9 11:16:37

Ollama+ChatGLM3-6B-128K:生成结构化JSON数据效果实测

OllamaChatGLM3-6B-128K:生成结构化JSON数据效果实测 你有没有遇到过这样的场景:需要把一段杂乱的用户输入、产品描述或者客服对话,快速转成标准格式的JSON数据?比如把“张三,男,32岁,北京朝阳…

作者头像 李华