网站体验分析广州专门做网站

张小明 2026/1/8 10:08:02
网站体验分析,广州专门做网站,广州手机网站开发,江阴市城乡建设网站全属性#xff1a;用于视觉概念个性化的开放词汇属性编码器 paper title#xff1a;Omni-Attribute: Open-vocabulary Attribute Encoder for Visual Concept Personalization paper是snap发布在Arxiv 2025的工作 图 1. Omni-Attribute 是一种开放词汇的图像属性编码器#…全属性用于视觉概念个性化的开放词汇属性编码器paper titleOmni-Attribute: Open-vocabulary Attribute Encoder for Visual Concept Personalizationpaper是snap发布在Arxiv 2025的工作图 1. Omni-Attribute 是一种开放词汇的图像属性编码器能够从视觉输入中学习提取属性特定的表示。给定参考图像顶部及其对应的文本属性描述彩色文本框Omni-Attribute 可以在无需任何测试时优化的前提下以完全前馈的方式对属性表示进行编码并在新的情境中进行连贯的合成中部和底部。这些学习到的表示具有两个关键特性(a) 它们能够捕捉用户指定图像属性的高保真、细粒度细节同时抑制无关的视觉信息从而减少“复制粘贴”伪影(b) 它们具有可组合性使得来自多个图像的表示能够无缝集成到一张连贯的生成图像中。Abstract视觉概念个性化旨在仅将特定的图像属性如身份、表情、光照和风格迁移到未见过的情境中。然而现有方法依赖通用图像编码器的整体式嵌入这些嵌入将多个视觉因素纠缠在一起从而难以隔离单一属性。这通常会导致信息泄漏和不连贯的合成。为解决这一局限我们提出了 Omni-Attribute这是首个旨在学习高保真、属性特定表示的开放词汇图像属性编码器。我们的方法在数据和模型上进行了联合设计(i) 我们构建了带有正、负属性标注的语义关联图像对以显式教会编码器应保留或抑制哪些信息(ii) 我们采用一种双目标训练范式在生成保真度与对比解耦之间取得平衡。所得嵌入在开放词汇属性检索、个性化和组合生成方面表现出色并在多个基准上取得了当前最优的性能。1. Introduction图像可以被视为视觉词袋 [12]其中包含丰富但纠缠的属性组合例如身份、表情、姿态、背景、光照、相机角度以及艺术风格。这种内在复杂性使得图像属性的解耦与操控成为一个极具挑战性的问题。最近在个性化方向的进展 [16, 72] 展示了将图像属性迁移到新情境中的强大能力使诸如“根据参考图生成我的狗”之类的应用成为可能。为实现这些目标大多数现有方法依赖通用图像编码器如 CLIP [54]、DINOv2 [46] 或用于图像生成的 VAE [31]从输入图像中提取整体表示以指导后续的生成过程。然而这一设计存在根本局限由于这些编码器会将所有视觉信息压缩并纠缠在一个单一表示中它们容易出现无关属性的信息泄漏导致不期望的“复制粘贴”伪影 [11]。例如如图 5 最左列所示即使只希望个性化身份现有图像嵌入仍会无意中迁移参考图像中的光照与服装细节。在本文中我们从一个新的角度重新审视属性操控问题重点研究如何在编码器端直接学习属性级别的表征。我们提出了 Omni-Attribute这是首个开放词汇图像属性编码器能够将图像与文本属性描述共同输入并进行处理。不同于通用编码器对所有视觉内容不加区分地捕捉Omni-Attribute 的设计目标是i专门且忠实地提取与目标属性相关的信息ii抑制与目标无关的视觉内容。我们在数据与模型两个层面联合设计以实现属性级别表示学习。在数据层面我们的训练样本由语义关联的图像对组成。为引导编码器学习属性特定的表征我们提出一种新的标注方式来建立图像对之间的语义联系包括i描述两张图共享语义的正属性ii指出两者差异的负属性。这样的成对结构可显式教导编码器哪些视觉概念应被保留哪些应被抑制。在模型层面我们将属性级别的表示学习建模为一个双目标优化问题一方面属性嵌入需要包含足够信息以高保真地重建目标属性另一方面它还必须摒弃与任务无关的属性线索。为同时实现这两个目标我们最小化两类互补损失i生成式损失确保从参考图像提取的嵌入能有效重建其配对图像ii对比损失在与负属性相关的嵌入之间引入排斥力。如图 1(a) 所示这两种损失共同驱动编码器准确且专一地解耦属性特定信息。最后我们展示了 Omni-Attribute 在属性组合任务中的多样性从不同图像中提取的多个属性嵌入可以无缝组合到一张图像中如图 1(b) 所示。我们的核心贡献如下我们提出了 Omni-Attribute这是首个开放词汇属性编码器能够在处理图像的同时结合文本属性描述提取属性特定的表征。为学习此类属性级别的嵌入我们引入了新的数据标注策略并提出一种新的训练方案在高保真编码和有效抑制无关信息之间取得平衡。我们展示了 Omni-Attribute 在多个下游任务中的适用性包括基于属性的图像检索、个性化生成及属性组合。同时我们还对其嵌入空间进行可视化以增强可解释性。2. Related Work视觉表征学习。Omni-Attribute 通过结合监督式、对比式和多模态学习来获取属性级别的嵌入这三者构成了过去 15 年视觉表征学习的关键基础。早期方法如 AlexNet [32]、ResNet [23]依赖在 ImageNet [13] 等大规模数据集上的监督预训练从而学习可迁移到各类识别任务的层级特征。随后自监督方法 [5, 7, 8, 20, 24] 引入实例级对比目标以在减少对标注数据依赖的同时保留判别性表示。更近一步CLIP [54] 通过多模态表征学习统一视觉与语言使两种模态的嵌入空间得以对齐。在此基础上DINO [6, 46, 59]、MAE [25] 等方法进一步推动了视觉抽象的发展但其仍然编码整体性的全局特征从而将多种图像属性纠缠在一起。沿着这一研究路线Omni-Attribute 显式建模属性级表示生成解耦且可组合的嵌入连接了表征学习与可控图像生成。图像引导生成。图像引导生成的目标是在保持语义一致性的前提下通过操控或扩展参考图像的视觉属性来合成新上下文。扩散模型 [28, 61, 62] 与基于 Transformer 的架构 [14, 43, 64] 的最新突破显著提升了生成质量推动了图像编辑 [18, 26, 35, 44, 63, 68, 70] 以及个性化 [9–11, 15, 16, 33, 51–53, 55, 57, 72] 等应用。一类常见策略是基于编码器的方法首先将参考图像映射为潜在嵌入再用这些嵌入对生成模型进行条件控制。例如IP-adapter [72] 通过轻量级、解耦的交叉注意力层注入由 CLIP 编码的图像特征以实现个性化Qwen-Image-Edit [68] 则利用多模态编码器 [66] 和 VAE [31] 对文本与视觉指令进行联合编码实现统一的视觉–语言条件生成。然而此类条件嵌入通常会将多个视觉属性纠缠在一起导致信息泄漏和不期望的“复制粘贴”伪影 [11]。Omni-Attribute 在编码器端解决该问题通过学习属性特定的嵌入生成更干净、更可控的合成结果。视觉概念解耦。图像在共享像素上天然混合了多种视觉属性使属性解耦成为长期存在的挑战。早期方法如 Break-A-Scene [1] 与 ConceptExpress [22] 尝试通过用户定义的或由注意力导出的空间掩码来分离概念但这些方法仅限于提取在空间上可分离的元素。Inspiration Tree [65] 引入了视觉概念的层级式分解但其表示缺乏可预测性。近期方法如 Token-Verse [17]基于优化和 Mod-Adapter [76]基于编码器通过操控 DiT [48] 的调制空间来表示图像属性但面临两大局限i逐 token 的调制方式难以个性化多 token短语级概念ii采用 AdaLN 进行条件控制使得调节能力限制在简单的仿射变换缩放与平移。与我们的设定更接近的 OADis [56] 和 De-CLIP [71] 利用文本引导的对比目标进行属性解耦但它们受限于固定的封闭属性集。相比之下Omni-Attribute 能够忠实提取开放词汇的属性嵌入从而实现更精确、更灵活的图像生成。3. Omni-Attribute我们的目标是学习一个开放词汇的属性编码器该编码器以图像和文本属性描述为联合输入生成解耦且属性特定的表示同时抑制其他无关的视觉信息。3.1. Semantic Connections between Image Pairs图 2. 训练数据标注。我们的训练数据由语义关联的图像对组成并附有正属性与负属性的标注用以根据图像间共享或不同的特征来定义它们的关系。右侧的词云展示了属性标注的丰富性与多样性有助于训练一个开放词汇的属性编码器。如图 2 所示我们的训练样本由语义关联的图像对组成。为学习属性级表征我们设计了一种新的标注方案通过两类属性为每个图像对建立语义联系i正属性用于描述两张图像共享的语义特征ii负属性用于强调两者之间的差异性特征。正属性与负属性的标注。要获得高质量的属性标注需要强大的视觉—语言理解能力以及冗长且细致的指令提示这在大规模推理中成本极高。为在标注质量与成本之间取得平衡我们采用两阶段标注流程。在第一阶段我们利用高性能但计算昂贵的 72B 参数多模态大语言模型MLLM[66]并配合详细的指令提示为子数据集生成高质量的属性标注。受 Chain-of-Thought [67] 启发我们通过显式提示模型为每个正属性与负属性生成细粒度的相似性与差异性描述如图 2 括号中的示例从而提升标注质量。在第二阶段我们在这些已标注的图像对上微调一个 32B 参数的 MLLM使其学习成为专门从事该任务的专家标注器。通过监督微调这个学生模型能够内化任务相关的推理行为以及结构化的标注格式使其无需详细指令即可进行高质量标注。这样显著降低了标注成本使输入 token 长度减少 3.1 倍、单样本标注延迟减少 6.3 倍。更多关于 MLLM 微调与标注流程的信息见附录 A.2。图 2右的词云展示了最终属性标注的丰富性与多样性促进了开放词汇属性编码器的学习。3.2. Attribute-level Representation Learning图 3. 双目标表征学习。我们的属性级表征学习由两个互补目标共同驱动生成式损失上方用于最大化嵌入中包含的信息并鼓励捕捉细粒度、高保真的细节以及对比损失下方用于提取属性特定的信息并抑制无关内容。学习高保真、属性级别的嵌入本质上是一个双目标优化问题一方面嵌入必须最大化与目标属性相关的信息以表示细粒度的特征另一方面它们还必须抑制来自无关属性的干扰。如图 3 所示我们通过联合优化两类互补的损失来实现这两个目标i生成式损失用于促进属性的忠实重建ii对比损失用于强化属性之间的分离与解耦。生成式损失。训练框架由编码器 和解码器或生成器 组成。给定一个带有 m 个正属性 {a₁⁺, …, aₘ⁺} 和 n 个负属性 {a₁⁻, …, aₙ⁻} 的训练图像对 (Iₓ, Iᵧ)我们随机将其中一张指定为参考图像 Iᵣ另一张指定为真实图像 I_g用于计算生成式损失。如图 3上所示生成式损失引导模型在参考图像 Iᵣ 的属性嵌入以及对应文本提示 c_g 的条件下重建 I_gL gen ϕ ( I ∗ , I g ) , I ∗ D ( E ( I r , { a 1 , … , a m } ) , c g ) (1) \mathcal{L}_{\text{gen}} \phi(I^*, I_g), \quad I^* \mathcal{D}(\mathcal{E}(I_r, \{a_1^, \ldots, a_m^\}),\, c_g) \tag{1}Lgen​ϕ(I∗,Ig​),I∗D(E(Ir​,{a1​,…,am​}),cg​)(1)其中 φ 是图像间通用的相似度或距离函数例如 L₂ 或流匹配损失。需要注意的是这里所有正属性都会作为输入提供给 以确保其提取两张图像共享的全部属性信息。实验表明在训练过程中若去掉任意正属性会导致 编码整张图像的整体信息从而进一步导致“复制粘贴”伪影而不是专注于指定的属性。对比损失。为增强属性解耦我们引入一种对比损失使从图像对 (Iₓ, Iᵧ) 中编码得到的正属性嵌入彼此吸引同时排斥与负属性或不同属性相关的嵌入如图 3下所示。形式上我们从中采样一个正属性 aᵢ⁺ 和一个负属性 aⱼ⁻并优化L con − log ⁡ ψ ( a i , a i ) ψ ( a i , a i ) ψ ( a i , a j − ) ψ ( a j − , a i ) ψ ( a j − , a j − ) (2) \mathcal{L}_{\text{con}}-\log\frac{\psi(a_i^, a_i^)} {\psi(a_i^, a_i^) \psi(a_i^, a_j^-) \psi(a_j^-, a_i^) \psi(a_j^-, a_j^-)} \tag{2}Lcon​−logψ(ai​,ai​)ψ(ai​,aj−​)ψ(aj−​,ai​)ψ(aj−​,aj−​)ψ(ai​,ai​)​(2)相似度函数 ψ 定义如下ψ ( a x , a y ) s i m ( p o o l ( E ( I x , a x ) ) , p o o l ( E ( I y , a y ) ) ) (3) \psi(a_x, a_y) \mathrm{sim}(\mathrm{pool}(\mathcal{E}(I_x, a_x)),\mathrm{pool}(\mathcal{E}(I_y, a_y))) \tag{3}ψ(ax​,ay​)sim(pool(E(Ix​,ax​)),pool(E(Iy​,ay​)))(3)其中相似度度量函数为s i m ( u , v ) exp ⁡ ⁣ ( 1 τ u ⋅ v ∥ u ∥ ∥ v ∥ ) , \mathrm{sim}(u, v) \exp\!\left(\frac{1}{\tau}\,\frac{u \cdot v}{\|u\|\|v\|}\right),sim(u,v)exp(τ1​∥u∥∥v∥u⋅v​),它测量两个池化后属性嵌入的相似度τ 为温度系数。该损失鼓励编码器在同一正属性的嵌入之间最大化相似度同时在负属性或不同属性的嵌入之间最小化相似度即便它们来自同一图像对从而构建一个具有判别能力的属性级嵌入空间。最终训练目标将生成式损失与对比损失结合L λ gen ⋅ L gen λ con ⋅ L con (4) \mathcal{L} \lambda_{\text{gen}} \cdot \mathcal{L}_{\text{gen}} \lambda_{\text{con}} \cdot \mathcal{L}_{\text{con}} \tag{4}Lλgen​⋅Lgen​λcon​⋅Lcon​(4)其中超参数 λ_gen 与 λ_con 用于在重建保真度与属性解耦之间取得平衡。3.3. Model Architecture图 4. 模型结构。我们的属性编码器由经过 LoRA 微调的 MLLM 以及一个可训练的轻量级连接器组成在保留强视觉—语言先验的同时能够适应属性解耦任务。图像解码器由一个冻结的生成器构成并配备可训练的 IP-Adapter [72] 模块以实现个性化。图 4 展示了我们的模型结构其由属性编码器 和图像解码器 组成。属性编码器。编码器的设计需满足两个关键要求(i) 能够联合处理文本与图像输入(ii) 拥有强大的视觉—语言先验以支持属性解耦目标。为满足这些需求我们采用 MLLM [66] 作为骨干网络。实证表明与全量微调相比LoRA [29] 微调更能保持预训练表征并缓解灾难性遗忘这与 Shuttleworth 等人 [58] 的研究一致。为进一步使模型适应属性解耦任务我们在骨干网络之后加入一个轻量、可训练的连接模块 [39]。编码器的输入是一个多模态 prompt由输入属性和图像共同组成如图 4左上所示。编码器输出长度为 l 的 token 序列A [ a 1 , … , a l ] , A [a_1, \ldots, a_l],A[a1​,…,al​],作为属性嵌入。对比头部。为了计算对比损失我们将二维属性嵌入通过平均池化聚合为一维表示p o o l ( A ) ∑ i 1 l a i / l . \mathrm{pool}(A) \sum_{i1}^{l} a_i / l.pool(A)i1∑l​ai​/l.图像解码器。对于生成式损失完整的属性嵌入 A 会被直接输入到下游解码器中该解码器由一个冻结的图像生成器组成并在其前接入可训练的 IP-Adapter [72] 模块以实现个性化。3.4. Composition of Multiple Attributes组合式图像生成的目标是通过整合来自不同参考源的多个对象或概念来合成连贯的输出。我们的实证结果表明所学习到的属性嵌入具有可组合性composable从而为组合式生成提供了一种替代方案。Composable Diffusion [38] 通过推广无分类器引导CFG[27] 以处理多条件信号实现了多条件合成。具体而言它结合了“conditional score estimates”其中每一个都表示与某个独立概念相关的梯度方向通过计算模型条件预测与无条件预测间的差异得到。我们在流匹配flow-matching生成器 [37] 中采用了类似思想。给定参考图像集合 {I₁, …, I_N} 及其对应的属性描述 {a₁, …, a_N}其中 N 表示参考源数量我们首先为每个图像–属性对计算 conditional flow fieldΔ ( I i , a i ) D ( E ( I i , a i ) , ∅ ) − D ( ∅ , ∅ ) . (5) \Delta_{(I_i, a_i)} \mathcal{D}(\mathcal{E}(I_i, a_i), \varnothing)- \mathcal{D}(\varnothing, \varnothing). \tag{5}Δ(Ii​,ai​)​D(E(Ii​,ai​),∅)−D(∅,∅).(5)然后我们通过对 conditional flow fields 进行线性组合来计算最终的速度v ∗ D ( ∅ , c ) ∑ i 1 N w i ⋅ Δ ( I i , a i ) , (6) v^* \mathcal{D}(\varnothing, c) \sum_{i1}^{N} w_i \cdot \Delta_{(I_i, a_i)}, \tag{6}v∗D(∅,c)i1∑N​wi​⋅Δ(Ii​,ai​)​,(6)其中 c 为提示词promptwᵢ 控制每个条件信号的权重。需要注意的是式 (6) 仅对属性条件应用 CFG。在实际应用中我们也会根据 InstructPix2Pix [4] 的做法对提示词 c 应用 CFG。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站移动端指的是什么网站服务器速度

Vectras VM:让手机变身全能桌面电脑的终极方案 【免费下载链接】Vectras-VM-Android Its a Virtual Machine App for Android Which is Based on QEMU 项目地址: https://gitcode.com/gh_mirrors/ve/Vectras-VM-Android 还在为出差时无法使用专业软件而烦恼&…

张小明 2026/1/1 3:05:37 网站建设

成都微信网站设计东莞今天新增加的情况

JLink接线背后的时序逻辑:从SWD到Fast Flash的工程实战解析你有没有遇到过这样的场景?新画好的PCB板子终于到手,兴冲冲插上J-Link准备下载程序,结果Keil里显示“No target connected”。换线、重启、重装驱动……试了一圈还是连不…

张小明 2026/1/1 3:05:05 网站建设

做网站生意国内常用的crm系统

HTMLMarkdown双格式输出:用Jupyter记录PyTorch实验全过程 在深度学习项目中,你是否曾遇到这样的场景?模型训练完成后,想向同事复现结果时却发现环境依赖混乱;翻看几个月前的代码,却记不清当时为什么选择某个…

张小明 2026/1/2 23:14:32 网站建设

陕西网站建设排名站长平台怎么添加网站

远程服务器部署Vivado:从“能不能”到“怎么干”的实战指南你有没有遇到过这样的场景?一个百万门级的FPGA设计,本地笔记本跑一次综合要6小时起步;团队里有人用2021版,有人用2023版,版本不一致导致工程打不开…

张小明 2026/1/3 1:16:01 网站建设

php网站超市北京asp网站设计制作

Arduino寻迹小车实战:如何精准识别T型与十字路口? 你有没有遇到过这样的情况——你的Arduino寻迹小车在直道上跑得稳稳当当,一到岔路口就“懵了”?明明是T型路口,它却一头冲过去以为是弯道;碰到十字交叉&am…

张小明 2026/1/3 7:08:45 网站建设

天津市开发区建设管理局网站沈阳网站建设seo优化

Kotaemon的异步之道:如何让智能代理从容应对高并发 在企业级AI应用的战场上,一个看似简单的用户提问背后,往往隐藏着复杂的执行链条——从检索知识库、调用外部API到生成自然语言回答,每一步都可能是性能瓶颈。当成百上千的用户同…

张小明 2026/1/6 7:25:05 网站建设