SFT+RL双管齐下:ReasonGen-R1如何破解文生图「指令不遵」难题?
近年来,链式推理和强化学习已经被广泛应用于大语言模型,让大语言模型的推理能力得到了显著提升。然而,在图像生成模型中,这种成功经验尚未得到充分探索。图像生成模型往往直接依据给定文本生成图像,缺乏类似人类创作过程中的推理,导致生成的图像在语义遵循上仍有一定局限。
近期,上海科技大学、微软亚洲研究院和复旦大学提出了 ReasonGen-R1 框架,一个两阶段训练框架,将链式推理监督微调(Supervised Fine-tuning)与强化学习(Reinforcement Learning)相结合,以提升自回归图像生成模型的推理和创作能力。ReasonGen-R1 使得自回归图像生成模型可以端到端地在输出图片之前先进行文本「思考」,大幅提升了基座模型的语义遵循能力,并在多个语义指标上取得突破。
目前,ReasonGen-R1 已全面开源(包括训练、评测代码,训练数据以及模型)。
论文标题:ReasonGen-R1: CoT for Autoregressive Image Generation model through SFT and RLArxiv 地址:https://arxiv.org/abs/2505.24875代码地址:https://github.com/Franklin-Zhang0/ReasonGen-R1项目主页:https://reasongen-r1.github.io
方法概览
ReasonGen-R1 的训练包括两个核心阶段:监督微调阶段(SFT)以及强化学习阶段(RL)。
监督微调阶段首先构建了一个大规模图片生成推理数据集,共包含 20 万条图像-文本对。该数据集基于 LAION 美学子集,利用 GPT-4.1 根据图片自动生成两类描述:一是多样化的简洁图片描述(包括常规叙述、基于标签和以物体为中心的叙述),二是丰富的推理式 CoT(chain-of-thought)叙述。多风格的简洁图片描述设计有效避免了模型在 SFT 阶段对单一 prompt 模式的过拟合。
随后,ReasonGen-R1 按照「Prompt → CoT →
图1. ReasonGen-R1 模型架构概览。ReasonGen-R1通过监督微调(SFT)以及强化学习(RL)使得模型可以先进行链式推理,再生成最终图片。
强化学习阶段通过 Group Relative Policy Optimization(GRPO)进一步优化模型输出。为了有效评价生成输出图像的质量和输入文本-输出图像的一致性,ReasonGen-R1 采用了预训练视觉语言模型 Qwen-2.5-VL-7B 作为奖励模型,让其对于每个输出图片,根据图片以及输入文本是否一致,给出 0、1 奖励。
图2. ReasonGen-R1强化学习框架概览。
此外,为确保训练稳定性,ReasonGen-R1 提出了一种改进的自适应熵损失函数,该损失函数能够将输出 token 的熵动态调节到目标熵附近,有效防止了在文本图像混合强化训练过程中训练不稳定导致模式崩塌的问题。
图3. 自适应熵损失中用于更新熵损失参数的loss function
ReasonGen-R1 实验结果
团队基于 Janus-Pro-7B 模型对 ReasonGen-R1 进行了全方面测试,选取了三个图像生成语义遵循指标:GenEval、DPG-Bench 以及 T2I-Benchmark。
如图 4 所示,ReasonGen-R1 在所有指标上都较基座模型有了显著的提升。这些结果表明,将文本推理通过 SFT-RL 的框架应用于图片生成,能够显著提升自回归图像生成模型的性能。
图4. 左图:基座模型Janus-Pro-7B和ReasonGen-R1生成图像可视化比较;右图:三个指令遵循指标上的表现比较。ReasonGen-R1在所有指标上均超过了基座模型,体现了指令遵循能力的巨大提升。
为深入探讨 ReasonGen-R1 各个模块的贡献,研究还进行了以下消融实验:
SFT 阶段的作用:为了测试 SFT 阶段对于模型最终性能的影响,ReasonGen-R1 对比了直接强化学习的结果。如表 1 所示,仅使用强化学习(RL)而未进行监督微调(SFT)时,模型表现显著下降,证明了 SFT 阶段对模型后续强化学习阶段的重要性。
奖励模型规模影响:实验还对比了不同大小的奖励模型。如表 1 所示,较小规模的奖励模型(Qwen-2.5-VL-3B)无法提供足够精准的反馈信号,严重影响强化学习阶段的表现。因此,选择高精度、大规模的奖励模型至关重要。
表1. ReasonGen-R1在GenEval指标上对于架构设计的消融实验
自适应熵损失函数的稳定作用:如图 6 所示,在没有熵损失的情况下,模型在经过 100 步的训练后会出现熵爆炸,同时 Reward 开始缓慢下降。另一方面,施加固定熵惩罚(–0.002)会使熵持续下降,并在第 80 步时过低,进而引发图片生成模式崩塌和奖励急剧下滑。这些现象凸显了在交错文本与图像的 RL 训练中,对于熵损失正则化设置的敏感性。相比之下,采用 ReasonGen-R1 提出的自适应熵损失能够将熵保持在最佳范围内,确保训练过程的稳定性以及奖励的稳定增长。
图6. 对于各个熵正则化策略在强化学习中的效果比较
ReasonGen-R1 CoT 分析
图7. 1000次CoT输出中的单词频率。只有出现频率高于20%的单词被展示。出现频率最高的三个’a, an, the’被移除以关注保护更多信息的词语
图 7 展示了 ReasonGen-R1 推理链的模式。首先,它通过「感知」(sense)、「场景」(scene)和「自然」(natural)等高频词(在超过 140% 的 CoT 中出现)来奠定总体框架,强调整体语境和真实场景。接着,它细化视觉风格:诸如「柔和」(soft)、「高光」(highlights)、「氛围」(mood)和「流畅」(sleek)等词汇(均在超过 100% 的 CoT 中出现)用以描述光照质量、情感基调和质感。
更关键的是,「突出」(highlighting)和「强调」(emphasizing)这两个词各自在至少 70% 的 CoT 中出现,表明模型有意识地聚焦于主要主体。这揭示出 ReasonGen-R1 不仅仅是在描述物体,而是在主动规划构图焦点。
除了核心词汇外,ReasonGen-R1 还运用了大量修饰词——「背景」(background)用于建立环境氛围;「特征」(features)用于突出显著视觉元素;「宁静」(calm)用于渲染平和氛围;「瞬间」(moments)用于传达时间抓拍感;「捕捉」(captured)用于强调摄影真实感;等等——以在每条推理序列中注入细腻的、情境化的细节。
总体而言,ReasonGen-R1 的推理链通过场景框架、风格细节、主体聚焦和细节修饰等要素,有效地引导了图像生成过程。
叶山小百合大战女婿
鸣人与小樱的秘密
小🐔🐔伸进🈲BB电视
91丨九色丨国产熟女❤️软件
日本⭕⭕⭕⭕XXxX人在火车里
带土把卡卡西C哭
缘分的天空免费高清
少妇AV精品一二三有码欧美
美女巨胸被捏胸❌
花木兰疯狂喷水自慰
韩国美女裸体㊙️免费
亚洲成AV人电影在线观看
N号房下安装包
黄漫画❤️免费网站入口
女主人的痰奴屎人尿奴小说
免费🆓看片软件
17c.com黑料吃瓜
欧产➕呻吟➕流白浆
禁漫画我熟mu老师全集
japanese少妇漂亮多毛
啊〜好痛〜嗯〜轻一点高潮图片
被黑人开发过的纹身是什么
大乳boobs巨大吃奶HD
偷拍15位女尿囗
西施自慰❌❌喷水好爽
成人免费观看A片www免费视频
羞羞视频my53777.com
美女又爽又黄脱脱内内动漫
白丝班长扒开腿让我c事件后续
美女扒开腿㊙️男人爽.九色
扒掉女警内裤猛烈进入的视频
Naruto❌Sakura钢手
高清做受❌❌高潮
芒果AV无码成人网站
丰满奶大肉诱妇HD高潮
男女❌❌❌超爽很痛的动作
silk-144郗及引引觴木化
蜜桃传媒㊙️免费播放
XXNX16中国免费视频
性爱乱伦小说
朱竹清裸体被吸乳网站
国产婬乱A片无码区亚洲成a人
布兰迪和朱莉安合拍的
性少妇mdms丰满hdf…
灰原嗯~啊~轻🈲🔞在线观看
91九色丨PORNY丨丝袜
静香被强❌图黄漫视频
体育生自慰Gay网站
purborn官网入口
あねちじょ♥マックスハート3在线
洛天依强制侵犯泄欲h文
羞羞漫画❤在线入口观看
孕妇分娩无码A∨片
黑土被鸣人❌❌变态梦
HotPornoHD💋💋女
爱情岛论坛网站入口
强扒乳罩摸双乳吃奶视频
我用🍆擦同桌的🐻
女王sm调教男奴免费区
69人XXXXXXXX68
日韩精品a 6 2v久久A片
二次元爽下面出水
亚洲⭕⭕⭕⭕XXXXyounv
免费🔞成人❌❌❌深夜天涯
成人啪啪动漫羞羞漫画网站缘之空
18🈲do爱动漫视频双男
a🔴🍑我好🔴痒🔴网站
洗澡无套自慰❌❌❌漫画
ХХХ -n
人一禽一交一视一频下一句是什么
欧美姓爱2021
一拳超人龙卷被❌羞羞动漫
❌❌❌sex性开放AVc漫画
张婉莹手笔自愈视频大全网站
FreeHD18❌❌❌原审
Pirates欧美成人片
Hentai❌18禁动漫
海贼蕾贝卡本子裸体
国产男男GayGay✅免费网站
网站黄在线播放
调教婬奴重口sm视频
网友评论 查看所有评论>>