下载次数破39万,CMUMeta联合发布VQAScore文生图优化方案:Imagen3已采用

VQAScore是一个利用视觉问答模型来评估由文本提示生成的图像质量的新方法;GenAI-Bench是一个包含复杂文本提示的基准测试集,用于挑战和提升现有的图像生成模型。两个工具可以帮助研究人员自动评估AI模型的性能,还能通过选择最佳候选图像来实际改善生成的图像。

然而,这些模型在处理复杂的提示词时仍存在不足。例如,当让StableDiffusion或Midjourney生成「棕色的狗绕着一棵树追黑色的狗」时,模型可能会错误生成两只黑狗,或将「追逐」误解为两只狗在「玩耍」。

有什么办法可以自动发现这些模型的不足,并进一步提升它们呢

为解决这一问题,CMU和Meta团队联合推出了全新的评估指标VQAScore及基准GenAI-Bench,用于自动评估图像、视频和3D生成模型在复杂提示词下的表现。

这些成果已在ECCV和CVPR等顶会上发表,并被谷歌DeepMind用于评估其最新的Imagen3模型,被誉为当前文生图领域超越CLIP等模型的最佳评估方案!

背景介绍

近年来,文生图模型(如DALL-E3、Imagen3、Sora等)发展迅速,但如何准确评估这些模型的表现仍是一个关键问题。

尽管许多公司采用人类评估(HumanEvaluation)来提升结果的准确性,但这种方式成本高、难以大规模应用,而且缺乏可复现性。

在图片生成领域,已有多种方法使用模型来自动评估(AutomatedEvaluation)生成图像的表现,其中常见的指标包括CLIPScore、FID、LPIPS、PickScore、ImageReward和HPSv2等。

然而,这些指标真的足够好吗

现有自动化指标的不足

在评估两张图片的相似性(similarity)时,传统指标LPIPS等方法依靠预训练的图像编码器,将图像特征嵌入后再计算距离。然而,这类方法只能评估图像与图像之间的相似度(image-to-imagemetric),而无法判断文本和图像之间的相似度(text-to-imagemetric)。

为了解决这一问题,当前主流的文生图评估采用了CLIPScore,通过独立的图像编码器和文本编码器,将图像和文本嵌入到同一特征空间,并通过计算特征相似度来判断它们的匹配程度。

然而,CLIPScore存在严重的「bag-of-words」问题:也就是说,CLIP在处理文本时可能忽略词序,混淆像「月亮在牛上面」和「牛在月亮上面」这样的句子。这使得模型难以准确抓住复杂文本中的关键信息。

为了解决这一问题,CMU和Meta的研究团队提出了VQAScore,采用更强大的生成式VQA模型(如GPT-4o)来更准确地评估文生图模型:

VQAScore:一种简单有效的评估指标

研究团队基于GPT-4o等用于视觉问答(VQA)任务的生成式视觉语言模型,将图像与提示词之间的相似度定义为模型在回答「这个图像是否显示了[提示词]请回答是或否。」时给出「是」(Yes)答案的概率:

例如,在计算某张图像与提示词「牛在月亮上面」之间的相似度时,VQAScore会将图像和问题「这个图像是否显示了『牛在月亮上面』请回答是或否。」输入模型,并返回模型选择「是」的概率。

另外,研究团队发现,当前主流的VQA模型(如LLaVA-1.5)使用了具备单向(auto-regressive)注意力机制的语言模型(如Llama)。这种机制导致模型在提取图像特征时,无法提前获取提示词的完整信息。

为了更有效的提取视觉特征,研究团队使用开源数据训练了一个更强的CLIP-FlanT5VQA模型。该模型采用了具备双向注意力机制的语言模型FlanT5,使得图像特征提取能够根据输入的提示词动态调整。

研究表明,这一机制在提升VQA模型对复杂提示词的理解方面效果显著。

VQAScore比主流评估指标更简单高效。许多传统指标依赖大量人类标注(如ImageReward、PickScore)或私有模型(如GPT-4Vision)才能取得好表现。

相比之下,VQAScore具备以下核心优势:

1.无需人类标注:VQAScore能直接利用现有的VQA模型取得优异表现,无需在人工标注数据上进行额外微调。

2.分数更精准:使用GPT-4给图片打分(如在0到100之间打分)时,模型往往会随意给出高分(如90),而忽略图片的真实质量。相比之下,VQAScore使用概率值来判断图片与提示词的相似度,结果更加精确。

VQAScore实验结果

研究人员在大量复杂图文匹配基准(如Winoground和EqBen)以及文生图评估基准(如Pick-a-pic和TIFA160)上对VQAScore进行了测试。

结果显示,VQAScore在所有图像、视频和3D生成任务的基准上超越了CLIPScore等流行指标,取得了最佳表现。

值得注意的是,VQAScore采用了开源模型(CLIP-FlanT5),却仍大幅超越了使用更强闭源模型(如PALI-17B和GPT-4)的方法(如VQ2、ViperGPT等)。

此外,VQAScore也超越了依赖提示分解进行视觉推理的先进方法(如CVPR'23最佳论文VisualProgramming和ViperGPT等),进一步验证了端到端评估方案的有效性。

最新的谷歌DeepMindImagen3报告还指出,使用更强大的VQA模型(如Gemini)可以进一步提升VQAScore的表现,凸显了其在未来生成式模型评测中的潜力。

GenAI-Bench:由设计师收集的高难度文生图基准

为了更好地评估文生图模型及其评估指标的性能,研究团队推出了GenAI-Bench。该基准包含1600个由设计师收集的复杂提示词,覆盖了10种生成模型(如DALL-E3、Midjourney、SDXL等),并配有超过80,000条人工标注。

GenAI-Bench相比较之前的基准有以下优势:

1.更具挑战性:研究表明,大多数文生图/视频模型在GenAI-Bench上表现仍有不足,还有大量的提升空间。

2.避免空洞词汇:所有提示词均经过严格筛选,避免使用假大空的词语,确保评估更具客观性。

3.细粒度技能分析:GenAI-Bench能提供更细致的技能分类和分析,帮助研究人员深入了解模型在不同能力上的具体表现。

GenAI-Rank:用VQAScore来提升文生图表现

研究人员构建了一个新的GenAI-Rank基准,为每个提示词使用DALL-E3和StableDiffusion(SD-XL)生成3到9张候选图像。

研究表明,从这些候选图像中返回VQAScore得分最高的图像,可以显著提升文生图模型的效果。

这一方法无需微调生成模型本身,因此也能优化(黑箱)私有模型,如DALL-E3。

实验结果进一步证明,VQAScore在图像排序上比其他方法(如CLIPScore、PickScore等)更加有效。

结语

VQAScore和GenAI-Bench为文生图模型提供了更精准且全面的评估,已被Imagen3、VILA-U、RankDPO等多个项目用于更好地评估和优化最新的生成式模型。研究团队已开源代码和数据集,期待未来更多探索与进展!

团队介绍

团队的一作林之秋(ZhiqiuLin)是卡内基梅隆大学的博士研究生,由DevaRamanan教授指导,专注于视觉-语言大模型的自动评估与优化。ZhiqiuLin在CVPR、NeurIPS、ICML、ECCV等顶级会议上发表了十数篇论文,并曾荣获最佳论文提名和最佳短论文奖等。其研究成果在生成模型和多模态学习领域受到了学术界和工业界的广泛认可。

PengchuanZhang是MetaAI(原FacebookAI研究院)的人工智能研究科学家,曾在微软研究院担任高级研究科学家。他的研究领域主要集中在深度学习、计算机视觉和多模态模型等方向,曾发表多项具有深远影响力的成果,例如AttnGAN、OSCAR、VinVL、Florence和GLIP等。他在顶级会议如CVPR、ICCV、NeurIPS等发表了大量高影响力论文,是计算机视觉和多模态模型领域的领军人物之一。

DevaRamanan教授是计算机视觉领域的国际知名学者,现任卡内基梅隆大学教授。他的研究涵盖计算机视觉、机器学习和人工智能领域,曾获得多项顶级学术荣誉,包括2009年的DavidMarr奖、2010年的PASCALVOC终身成就奖、2012年的IEEEPAMI青年研究员奖、2012年《大众科学》评选的「十位杰出科学家」之一、2013年美国国家科学院KavliFellow、2018年和2024年的Longuet-Higgins奖,以及因其代表性工作(如COCO数据集)获得的Koenderink奖。此外,他的论文在CVPR、ECCV和ICCV上多次获得最佳论文提名及荣誉奖。他的研究成果对视觉识别、自动驾驶、和人机交互等应用产生了深远影响,是该领域极具影响力的科学家之一。

京东11.11采销直播探厂为消费者揭开答案。近日,京东3C数码采销走进武汉攀升工厂、合肥联想工厂和科大讯飞展厅,通过直播带货厂商爆款产品,并为消费者带来超值低价与福利。

奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。

华硕ProArt创艺27ProPA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。

9月14日,2024全球工业互联网大会——工业互联网标识解析专题论坛在沈阳成功举办。

THE END
1.萌//@enadrama:小狗哼哼唧唧转发@Monst...来自一个自然人萌//@enadrama:小狗哼哼唧唧【转发】@Monstarrrd:答应我,多保留一会好吗? LMonstarrrd的微博视频 https://weibo.com/2406806962/OEH6PmmSB
1.DogmatizesDefinition&MeaningMerriamThe meaning of DOGMATIZE is to speak or write dogmatically.https://www.merriam-webster.com/dictionary/dogmatizes
2.go语言怎么实现继承?Worktile社区在Go语言中,实现继承的方式与传统面向对象语言有所不同。1、通过嵌入结构体、2、利用接口、3、组合结构体这三种方法可以模拟继承的效果。以下是对嵌入结构体的详细描述: 在Go语言中,继承主要通过嵌入结构体来实现。嵌入结构体是一种匿名组合的方式,使得一个结构体可以包含另一个结构体的字段和方法,从而实现类似继承...https://worktile.com/kb/p/3589957
3.ECT的英語發音/i?/as in sheep /s/as in say /i?/as in sheep /t/as in town /i?/as in sheep US/?i?.siti?/ECT /i?/as in sheep /s/as in say /i?/as in sheep /t/as in town /i?/as in sheep (ECT在劍橋高級學習詞典和同義詞詞典和劍橋學術詞典的英語發音, bot...https://dictionary.cambridge.org/zht/%E7%99%BC%E9%9F%B3/%E8%8B%B1%E8%AA%9E/ect
4.25考研外刊阅读《每日电讯报》双语精读版训练That's not to say that dogs only bark when their canine senses are triggered. Some dogs might bark spontaneously out of boredom, in which case more exercise or playtime is probably needed. They might also be trying to get their owner's attention. ...https://www.163.com/dy/article/JGDMQNEQ05459BTA.html
5.dogma"dogma"的詞源起源與含義僅供參考,由機器翻譯系統提供。查看原文,請訪問:Etymology, origin and meaning of dogma 廣告 dogma附近的字典條目 dog-gone doggy doghouse dogie dog-leg dogma dogmatic dogmatism do-gooder dog-paddle dogs 連結論壇完整來源列表連結產品iOS 應用程式Android 應用程式Chrome 擴充功能關於誰做的介紹和解釋在Facebook...https://www.etymonline.com/tw/word/dogma