UniAVGen
Sun Sep 21 2025
3186 words · 25 minutes

UniAVGen


Table of Contents

UniAVGen: Unified Audio and Video Generation with Asymmetric Cross-Modal Interactions Link to UniAVGen: Unified Audio and Video Generation with Asymmetric Cross-Modal Interactions

image-20251112145822899

UniAVGen 接受一个参考说话者图像 IrefI^{\text{ref}}一个视频提示 TvT^{\text{v}}(描述所需的运动或表情的字幕),以及语音内容 TaT^{\text{a}}(要说出的文本)作为输入。此外,它支持通过可选的参考音频片段 XarefX^{\text{a}_{\text{ref}}} 来指定目标声音,并通过以现有条件音频 XacondX^{\text{a}_{\text{cond}}}视频 XvcondX^{\text{v}_{\text{cond}}} 为条件来实现音视频的接续

3.1. 概述 Link to 3.1. 概述

引入了一个基于对称设计的双分支联合合成框架。

视频分支主干: **Wan 2.2-5B 视频生成模型 **

音频分支主干:Wan 2.1-1.3B 的架构模板——与 Wan 2.2-5B 具有相同的整体结构,仅在通道数上有所不同。

这种对称策略确保了两个分支都以等效的表征能力开始,并在所有级别的特征图之间建立了自然的对应关系

这种结构上的均等性是实现有效跨模态交互的基石,从而提升了音视频同步和整体生成质量。

  • 视频分支

    视频首先以每秒 16 帧的速度进行处理,并使用Wan2.2-5B的VAE编码成潜在表征 zvz^{\text{v}}

    参考说话者图像 IrefI^{\text{ref}} 和条件视频 XvcondX^{\text{v}_{\text{cond}}} 也分别编码成潜在嵌入 zvrefz^{\text{v}_{\text{ref}}}zvcondz^{\text{v}_{\text{cond}}}

    视频分支的输入 ztvz^{\text{v}}_{t} 通过拼接这三个潜在分量得到: ztv=[z0v,zvref,zvt]z^{\text{v}}_{t} = [z^{\text{v}}_{0}, z^{\text{v}_{\text{ref}}}, z^{\text{v}_{t}}]^{\top}

    对于视频字幕 TwT^{\text{w}},它通过 umT5 编码成 eve^{\text{v}},其嵌入通过交叉注意力馈入DiT。

    遵循流匹配范式:在这里,模型 uθvu_{\theta_{\text{v}}} 训练用于预测向量场 vtv_{t},训练目标公式为

    Lv=vt(ztv)uθv(ztv,t,ev)2\mathcal{L}^{\text{v}} = ||v_{t}(z^{\text{v}}_{t}) - u_{\theta_{\text{v}}}(z^{\text{v}}_{t}, t, e^{\text{v}})||^2
  • 音频分支

    遵循文本转语音 (TTS) 中的常见做法,音频首先以 24,000 Hz 采样并转换为 Mel 语谱图,作为音频的潜在表征 zaz^{\text{a}}

    参考音频 XarefX^{\text{a}_{\text{ref}}} 和条件音频 XacondX^{\text{a}_{\text{cond}}} 也被转换成它们各自的潜在表示 zarefz^{\text{a}_{\text{ref}}}zacondz^{\text{a}_{\text{cond}}}

    然后,这三个潜在分量沿着时间维度进行拼接,构成音频分支的输入 zta=[z0a,zacond,zta]z^{\text{a}}_{t} = [z^{\text{a}}_{0}, z^{\text{a}_{\text{cond}}}, z^{\text{a}}_{t}]^{\top}

    音频分支的训练目标公式为:

    La=vt(zta)uθa(zta,t,ea)2\mathcal{L}^{\text{a}} = ||v_{t}(z^{\text{a}}_{t}) - u_{\theta_{\text{a}}}(z^{\text{a}}_{t}, t, e^{\text{a}})||^2

    其中 eae^{\text{a}} 表示通过 ConvNeXt Blocks 提取的语音内容 TaT^{\text{a}} 的特征,通过交叉注意力进一步注入到 DiT 层中,确保音频生成过程与目标音频的声学信息紧密耦合。

3.2. 非对称跨模态交互 (Asymmetric Cross-Modal Interaction) Link to 3.2. 非对称跨模态交互 (Asymmetric Cross-Modal Interaction)

虽然双分支结构建立了结构均等性,但要实现鲁棒的音视频同步需要深度跨模态交互

先前的工作主要采用了两种设计实现这一点:

  • 第一种是全局交互,如图 3(a) 所示,其中每个模态的 token 都与另一个模态的所有 token 进行交互。虽然简单,但这需要高训练成本才能收敛到高性能,因为它缺乏明确的时间对齐

    也就是A2V的每一秒视频都和全部语音交互,V2A同理

  • 第二种是时间对齐交互 [38],如图 3(b) 所示,其中每个视频 token 与其对应时间间隔内的音频 token 进行相互作用。这种方法通常收敛更快,但限制了交互期间的上下文信息访问

    也就是A2V的视频的某一秒只和音频的同一时间段交互

image-20251112152653854

为了更好地平衡收敛速度和性能,引入了一种新颖的非对称跨模态交互机制,该机制由两个专门的对齐器组成,分别针对每个模态的独特特征

  • 音频到视频 (A2V) 对齐器

    A2V 对齐器通过将细粒度的音频线索注入视频分支,确保精确的语义同步

    我们首先重塑隐藏特征以匹配它们的时间结构:

    • 视频 token HvRLv×DH^{\text{v}} \in \mathbb{R}^{L^{\text{v}} \times D} 被重塑为 H^tvRT×Nv×D\hat{H}^{\text{v}}_{t} \in \mathbb{R}^{T \times N_{\text{v}} \times D}(其中 TT 表示视频潜在帧的数量,NvN_{\text{v}} 是每帧的空间 token 数量)
    • 音频 token HaRLa×DH^{\text{a}} \in \mathbb{R}^{L^{\text{a}} \times D} 被重塑为 H^aRT×Na×D\hat{H}^{\text{a}} \in \mathbb{R}^{T \times N_{\text{a}} \times D}

    与图 3(b) 不同,我们为每个视频帧创建一个语境化音频表征,认识到视觉发音受到先前和后续音素的影响

    对于第 ii 个视频潜在帧,我们通过拼接其邻近帧的音频 token,构建一个音频上下文窗口 Cia=[H^iwa,,H^ia,,H^i+wa]C^{\text{a}}_{i} = [\hat{H}^{\text{a}}_{i-w}, \dots, \hat{H}^{\text{a}}_{i}, \dots, \hat{H}^{\text{a}}_{i+w}],窗口大小为 ww

    边界帧通过复制第一帧或最后一帧的特征进行填充。

    ==也就是多看一点点前后文,并且有个overlap的操作==

    随后执行逐帧交叉注意力,其中每个帧的视频潜在查询对应的上下文音频潜在

    H^iv=Wov[H^iv+CrossAttention(Q=WqaH^iv,K=WKaCia,V=WVaCia)].\hat{H}^{\text{v}}_{i} = W_{\text{o}}^{\text{v}}[\hat{H}^{\text{v}}_{i} + \text{CrossAttention}(Q = W_{\text{q}}^{\text{a}}\hat{H}^{\text{v}}_{i}, K = W_{\text{K}}^{\text{a}}C^{\text{a}}_{i}, V = W_{\text{V}}^{\text{a}}C^{\text{a}}_{i})].
  • 视频到音频 (V2A) 对齐器。

    相反,V2A 对齐器将说话者视觉身份(例如,音色、情感)派生的属性嵌入到生成的音频中。

    在这里,时间不匹配更为突出,因为每个视频潜在帧映射到一个 kk 个音频 token 块

    举例:1s生成16帧视频。音频是以更小、更密集token 为单位的,则一帧视频的时间长度内**( 116\frac{1}{16} 秒),可能有 kk 个音频 token 需要生成。

    时间不匹配:视频的一帧跨越kk 个音频 token 的时间。

    为了实现捕捉平滑视觉过渡的细粒度对齐,采用了一种临时邻域插值策略

    对于每个音频 token jj(对应于视频潜在帧 i=j/ki = \lfloor j/k \rfloor),计算两个时间上相邻帧的潜在(帧 ii 和后续帧 i+1i+1)的线性插值加权平均,得到一个插值视频上下文Cjv=(1α)H^iv+αH^i+1vC^{\text{v}}_{j} = (1 - \alpha)\hat{H}^{\text{v}}_{i} + \alpha\hat{H}^{\text{v}}_{i+1},其中 α=(jmodk)/k\alpha = (j \bmod k)/k.

    音频 Token j相对位置 jmodk插值系数 α**视觉上下文 **CjvC_j^v解释
    j=0j=00α=0/4=0\alpha = 0/4 = 01.0×H^iv+0×H^i+1v1.0 \times \hat{H}^{\text{v}}_{i} + 0 \times \hat{H}^{\text{v}}_{i+1}完全看当前帧 ii,因为这是时间起点。
    j=1j=11α=1/4=0.25\alpha = 1/4 = 0.250.75×H^iv+0.25×H^i+1v0.75 \times \hat{H}^{\text{v}}_{i} + 0.25 \times \hat{H}^{\text{v}}_{i+1}更多地ii 帧,少量地看下一帧 i+1i+1
    j=2j=22α=2/4=0.5\alpha = 2/4 = 0.50.5×H^iv+0.5×H^i+1v0.5 \times \hat{H}^{\text{v}}_{i} + 0.5 \times \hat{H}^{\text{v}}_{i+1}平均地ii 帧和 i+1i+1 帧。
    j=3j=33α=3/4=0.75\alpha = 3/4 = 0.750.25×H^iv+0.75×H^i+1v0.25 \times \hat{H}^{\text{v}}_{i} + 0.75 \times \hat{H}^{\text{v}}_{i+1}更多地下一帧 i+1i+1,为接下来的音频生成做准备。

    对于最后一个音频 token 块,简单地使用 Cjv=H^T1vC^{\text{v}}_{j} = \hat{H}^{\text{v}}_{T-1}。这种插值上下文提供了一个平滑、时间感知的视觉信号

    最后,我们执行交叉注意力,其中每个音频潜在查询其对应的插值视频上下文

    H^ja=Woa[H^ja+CrossAttention(Q=WqaH^ja,K=WKvCjv,V=WVvCjv)]\hat{H}^{\text{a}}_{j} = W_{\text{o}}^{\text{a}}[\hat{H}^{\text{a}}_{j} + \text{CrossAttention}(Q = W_{\text{q}}^{\text{a}}\hat{H}^{\text{a}}_{j}, K = W_{\text{K}}^{\text{v}}C^{\text{v}}_{j}, V = W_{\text{V}}^{\text{v}}C^{\text{v}}_{j})]
  • 最后,H^a\hat{H}^{\text{a}}H^v\hat{H}^{\text{v}} 被重塑以匹配 HaH^{\text{a}}HvH^{\text{v}} 的维度,并作为附加特征重新注入:

    Hv=Hv+H^vH^{\text{v}} = H^{\text{v}} + \hat{H}^{\text{v}} Ha=Ha+H^aH^{\text{a}} = H^{\text{a}} + \hat{H}^{\text{a}}

    为了不损害每个模态在训练开始时的生成能力,输出矩阵 WovW^{\text{v}}_{\text{o}}WoaW^{\text{a}}_{\text{o}} 都被初始化为零

3.3. 面部感知调制 (Face-aware modulation) Link to 3.3. 面部感知调制 (Face-aware modulation)

对于音视频联合生成,关键的语义耦合绝大多数集中在面部区域

强迫交互处理整个场景是低效的,并可能在训练早期引入虚假相关性,从而破坏背景元素的稳定。

为了解决这个问题,提出了一种面部感知调制 (Face-Aware Modulation) 模块,该模块动态地将跨模态交互引向面部区域

  • 动态掩码预测

    引入了一个轻量级的辅助掩码预测头,它作用于去噪网络内的视频特征 HvlH^{\text{v}_{l}}

    该头部应用层归一化 L\mathcal{L}、一个学习的仿射变换、一个线性投影和一个Sigmoid 激活

    生成一个软掩码 Ml(0,1)T×NvM^{l} \in (0, 1)^{T \times N_{\text{v}}}Ml=σ(Wm(γLayerNorm(Hvl)+β)+bm)M^{l} = \sigma \left( W_{\text{m}} \left( \gamma \odot \text{LayerNorm}(H^{\text{v}_{l}}) + \beta \right) + b_{\text{m}} \right),其中 \odot 是逐元素乘法。

    为了确保预测的掩码为人类指导,我们不仅监督其与原始的去噪目标,还施加了一个额外的掩码损失 λmLm\lambda^{\text{m}}\mathcal{L}^{\text{m}}λmLm=λmMlMgt22\lambda^{\text{m}}\mathcal{L}^{\text{m}} = \lambda^{\text{m}}|| M^{l} - M^{\text{gt}} ||_2^2,其中 MgtM^{\text{gt}} 是使用真实人脸掩码计算得到的。

    ==预测掩码和真实人脸掩码比较==

    同时,为了避免在较早的训练阶段过度约束跨模态交互,超参数 λm\lambda^{\text{m}} 随着时间逐渐衰减到 0

  • 掩码引导的跨模态交互

    预测的面部掩码 MlM^{l} 通过两种不同的机制细化我们非对称对齐器中的跨模态交互:

    1. A2V 交互的选择性更新:

      Hvl=Hvl+MlHˉvlH^{\text{v}_{l}} = H^{\text{v}_{l}} + M^{l} \odot \bar{H}^{\text{v}_{l}}

      其中Hˉvl\bar{H}^{\text{v}_{l}}表示 A2V 交叉注意力的输出。

      效果:

      • 在人脸区域(Ml1M^l \approx 1),A2V 的影响被保留并增强

      • 在背景区域(Ml0M^l \approx 0),A2V 的影响几乎被消除

      这确保了音频信息在训练早期优先调制面部显著区域,同时抑制背景

    2. V2A 交互:

      为了使显著区域的信息能够转移到音频分支,调制视频特征 HvlH^{\text{v}_{l}}HvlMlH^{\text{v}_{l}} \odot M^{l},然后将其用作计算 CjvC^{\text{v}}_{j}的输入。

3.4. 模态感知无分类器指导 (Modality-Aware Classifier-Free Guidance) Link to 3.4. 模态感知无分类器指导 (Modality-Aware Classifier-Free Guidance)

CFG的传统设计本质上是单模态的

多模态的联合合成应用中,其中每个分支都独立地由其文本提示引导音频驱动视频同步或视频影响音频的指导没有被明确体现,限制了模型在音视频同步方面的能力。

为了解决这个问题,提出了模态感知无分类器指导 (MA-CFG),这是一种新颖的方案,用于加强跨模态条件作用机制

关键见解在于,一个单一、共享的无条件估计可以同时指导两个模态

这是通过执行一个前向传播来实现的,其中两个跨模态分支的条件信号都被置空 (nullified),这等同于单模态的无条件估计

具体来说,我们定义了音频和视频无条件估计不含跨模态交互)为 uθvu_{\theta_{\text{v}}}uθau_{\theta_{\text{a}}},以及含跨模态交互的估计为 uθv,au_{\theta_{\text{v}, \text{a}}}

然后,MA-CFG 对每个模态的公式为:

u^v=uθv+sv(uθv,auθv)\hat{u}^{\text{v}} = u_{\theta_{\text{v}}} + s_{\text{v}}(u_{\theta_{\text{v}, \text{a}}} - u_{\theta_{\text{v}}}) u^a=uθa+sa(uθv,auθa)\hat{u}^{\text{a}} = u_{\theta_{\text{a}}} + s_{\text{a}}(u_{\theta_{\text{v}, \text{a}}} - u_{\theta_{\text{a}}})

其中 svs_{\text{v}}sas_{\text{a}} 分别是控制视频和音频模态指导强度的系数。

3.5. 多任务统一 (Multi-task unification) Link to 3.5. 多任务统一 (Multi-task unification)

利用 UniAVGen 整体设计的对称性和灵活性,我们支持多种输入组合来处理不同的任务:

image-20251112164749567
  1. 联合音视频生成 (Joint audio-video generation): 核心任务,仅接受文本参考图像作为输入,生成对齐的音频和视频。
  2. 带参考音频的联合生成 (Joint generation with reference audio): 相比于 (1),它支持输入自定义的声音片段来控制说话者的音色一致性。值得注意的是,为了保持音色一致性,我们跳过了参考音频的跨模态交互
  3. 联合音视频接续 (Joint audio-video continuation): 它基于给定的条件音频和条件视频执行连续生成。对于此任务,条件信息也参与跨模态交互,同时其特征保持不受交互影响,以保留时间连续性。
  4. 视频转音频配音 (Video-to-audio dubbing): 仅提供条件视频时,模型根据视频和文本生成对应的情感和表情对齐的音频。可以可选地提供参考音频来锚定音色,并且视频分支的参考图像条件视频的第一帧填充。
  5. 音频驱动视频合成 (Audio-driven video synthesis): 仅提供条件音频时,模型根据音频和文本在视频分支中生成表情和运动对齐的视频
Thanks for reading!

UniAVGen

Sun Sep 21 2025
3186 words · 25 minutes