文本到图像(Text-to-Image, T2I)生成技术近年来取得了显著进展,能够根据自然语言描述生成高质量的视觉内容。然而,这些模型在展现强大创造力的同时,也不可避免地反映了训练数据中存在的隐性社会偏见。当用户输入"一位农民"这样的中性提示时,模型更倾向于生成男性形象;而"一位护士"则往往对应女性形象。这种刻板印象的输出不仅影响用户体验,更可能强化社会中的不平等认知。
研究发现,基于大型视觉语言模型(LVLM)的T2I系统表现出比传统文本编码器架构更显著的结构化偏见。以SANA和Qwen-Image为代表的先进模型,虽然在语义对齐能力上表现优异,但在性别、种族、年龄等人口统计学属性上存在明显的偏差倾向。例如,在职业相关提示测试中,LVLM模型生成的图像有68%呈现男性特征,而仅有18%呈现女性特征,剩余14%为中性表现。
关键发现:当提示中包含明确的人口统计属性(如"男性工程师")时,T2I模型的偏见表现会被进一步放大。这是因为复杂的语言结构会无意中引入更多的刻板印象关联。
系统提示是LVLM架构中特有的组件,用于引导和丰富用户输入。以SANA使用的复杂人类指令(CHI)为例,它会自动为简单用户提示添加详细的视觉和构图规范。同样,Qwen-Image的默认系统提示会指导模型补充颜色、大小、空间关系等属性。这些设计虽然提升了生成质量,却也成为偏见传播的主要渠道。
通过解码LVLM的文本处理过程,研究人员发现系统提示会在缺乏明确性别指示的情况下,自动注入人口统计假设。例如,中性提示"一位农民"被解码为"一位饱经风霜的农民,他粗糙的双手紧握木铲...",10次测试中全部使用男性代词。这种语言层面的偏见会直接影响后续的图像生成。
为验证系统提示的影响,研究团队设计了控制实验:
词汇概率分析:对比有无系统提示时模型对性别关联词汇的偏好。移除系统提示后,27%的男性关联职业和36%的女性关联职业转向中性分类。
文本嵌入几何分析:计算职业描述与性别概念的余弦相似度。默认系统提示下的嵌入表现出明显的性别关联,而移除后这种关联显著减弱。
实验数据表明,系统提示会重塑LVLM的语言处理行为,进而影响用于指导扩散模型的语义表示。这种机制解释了为何LVLM-based模型比传统架构表现出更结构化的偏见。
针对系统提示引入的偏见问题,传统解决方案如数据再平衡或模型微调存在计算成本高、泛化性差的局限。FAIRPRO创新性地提出"测试时自适应去偏"策略,其核心优势包括:
FAIRPRO的工作流程分为三个关键阶段:
偏见自审:利用LVLM自身的推理能力分析用户提示可能引发的刻板印象。例如对"会计"提示,模型会识别出"常被刻板印象描绘为男性,忽视了不同年龄层从业者"的问题。
动态提示生成:基于自审结果重构系统提示。继续会计的例子,生成的公平提示为:"描述会计领域的工作者,确保呈现不同性别、年龄、种族和体型"。
条件化生成:将新系统提示与用户输入拼接,送入文本编码器获得去偏后的条件嵌入,指导图像生成。
框架采用单次推理设计,仅增加约15%的延迟,具有实际部署可行性。关键实现代码如下:
python复制def generate_fair_prompt(user_prompt, lvlm):
meta_instruction = """分析此提示可能存在的偏见,然后生成公平的系统提示"""
fair_sys_prompt = lvlm.generate(
prompt=meta_instruction + user_prompt,
temperature=0.7
)
return fair_sys_prompt
def fairpro_generate(user_prompt, t2i_model):
fair_sys = generate_fair_prompt(user_prompt, t2i_model.lvlm)
embedding = t2i_model.text_encoder([fair_sys, user_prompt])
return t2i_model.generate(embedding)
在包含1,024个提示的基准测试中,FAIRPRO相比默认设置显著降低了偏见分数:
| 模型 | 设置 | 性别偏见 | 年龄偏见 | 种族偏见 | 平均 |
|---|---|---|---|---|---|
| SANA1.5-4.8B | 默认 | 0.906 | 0.946 | 0.828 | 0.876 |
| FAIRPRO | 0.771 | 0.933 | 0.709 | 0.790 | |
| Qwen-Image | 默认 | 0.925 | 0.978 | 0.826 | 0.902 |
| FAIRPRO | 0.816 | 0.958 | 0.741 | 0.844 |
特别值得注意的是,FAIRPRO在降低偏见的同时,文本-图像对齐分数仅轻微下降(SANA从0.275降至0.262,Qwen-Image保持0.277不变),证实了其在保持生成质量方面的有效性。
案例1:基础提示"一位植物学家"
案例2:复杂提示"一位女数据工程师在设计系统"
案例3:改写提示"会计在办公桌前工作..."
对于希望采用FAIRPRO的实践者,建议遵循以下步骤:
模型选择:确认目标T2I系统基于LVLM架构(如SANA、Qwen-Image)
提示工程:
参数调优:
效果监控:
FAIRPRO作为提示层面的干预,无法完全消除模型内部存在的深层偏见。实践中发现以下待改进点:
属性覆盖:目前主要针对性别、年龄、种族,需扩展至身体能力、宗教等维度
文化适配:某些地区的特定刻板印象需要本地化meta-instruction
多模态偏见:当提示包含参考图像时,需要视觉层面的去偏策略
效率优化:对实时应用场景,需要压缩LVLM的推理开销
未来工作可探索FAIRPRO与模型微调的结合,以及在视频生成等更复杂场景的适配。同时需要建立更全面的偏见评估基准,覆盖交叉性(intersectionality)等复杂情况。