Knowledge Diffusion for Distillation 阅读与思考

213 阅读6分钟

Knowledge Diffusion for Distillation 阅读与思考

知识蒸馏的关键在于如何通过匹配输出特征(e.g.、表示和逻辑)将知识从老师转移到学生。 最近的一些研究表明,由于两个模型之间的容量差距,学生特征和老师特征之间的差异可能非常大。直接对齐这些不匹配的特征甚至会扰乱学生的优化并削弱性能。因此,大多数最先进的知识蒸馏方法的本质是缩小这种差异并只选择有价值的信息进行蒸馏。

image

image

image

1 阅读中存在的问题

在阅读本文的时候有以下问题,问题的回答主要是自己对于架构的理解,如果有偏差希望小伙伴纠正!

1.1 将去噪后的学生模型的特征与教师的潜在空间的特征对齐对学生模型的优化有何帮助呐?


1. 总体流程

  1. 输入

    • 学生(Student)和教师(Teacher)分别接收输入数据,生成特征。
  2. 教师分支

    • 教师模型的特征通过自编码器(Autoencoder)进一步提取潜在特征(Latent Feature)。
    • 教师模型的潜在特征用于计算重构损失(Rec. Loss)以对齐输入特征和潜在特征。
  3. 学生分支

    • 学生特征经过 (1\times1) 卷积处理后传入噪声适配器,生成带噪的特征。
    • 带噪特征再传入扩散模型,通过去噪过程生成去噪后的学生特征。
    • 去噪后的学生特征通过 KD Loss(知识蒸馏损失)与教师特征进行对齐。
  4. 损失优化

    • 主要损失包括:
      • Rec. Loss:对齐教师的潜在特征和输入特征;
      • Diff. Loss:优化扩散模型预测的噪声;
      • KD Loss:学生去噪特征与教师潜在特征的对齐。

2. 模块分析

(1) 噪声适配器(Noise Adapter)
  • 输入:学生的特征 Z(stu)Z^{(stu)}
  • 操作
    1. 特征通过瓶颈模块和池化操作生成特征均值。
    2. 使用全连接层生成噪声权重 γ\gamma
    3. 通过公式 Zt(stu)=γZ(stu)+(1γ)ϵtZ^{(stu)}_{t} = \gamma Z^{(stu)} + (1-\gamma)\epsilon_t 引入噪声,其中 ϵt\epsilon_t 为高斯噪声。
  • 输出:带噪特征 Zt(stu)Z^{(stu)}_t

作用

  • 根据学生特征的噪声水平自适应地调整噪声强度(通过 γ\gamma 控制)。
  • 模拟学生特征与教师特征的分布差异。

(2) 扩散模型(Diffusion Model)
  • 输入:带噪特征和时间步嵌入(Timestep Embedding)。
  • 操作
    1. 带噪特征通过瓶颈层和卷积层生成噪声预测。
    2. 通过去噪过程优化学生特征分布。
  • 输出:去噪后的学生特征。

作用

  • 将学生模型的特征从带噪状态还原为与教师特征更加对齐的去噪状态。
  • 提升学生特征的分布质量,使其更加接近教师潜在空间。

(3) 自编码器(Autoencoder)
  • 输入:教师特征。
  • 操作
    • 使用两个 1×11\times1 卷积层编码和解码特征。
  • 输出:潜在特征。

作用

  • 提取更精炼、更语义化的教师特征,作为学生对齐的目标。
  • 提升教师特征的可表示性。

3. 模型优化中的关键点

(1) 噪声适配器的作用
  • 动态匹配噪声水平
    • 使用噪声权重 γ\gamma 自适应调整噪声强度。
    • 允许学生模型的特征与教师的潜在空间逐步对齐,降低训练的难度。
(2) 扩散模型的作用
  • 去噪优化
    • 通过逐步去噪找到学生特征与教师特征分布间的“最短路径”。
    • 相较于直接对齐特征的线性方法,扩散模型更适合处理复杂的分布差异。
(3) 自编码器的作用
  • 增强教师特征表示
    • 将教师特征映射到一个更易于学生模型学习的潜在空间,避免学生直接学习过于复杂的原始特征。
(4) 损失函数的协同优化
  • Rec. Loss:确保教师特征与输入对齐,保证教师特征的准确性。
  • Diff. Loss:通过优化去噪过程,提升扩散模型的性能。
  • KD Loss:直接对齐去噪学生特征和教师潜在特征。

1.2 在推理过程中,并没有对学生模型的特征进行去噪,那么是如何实现的提升学生模型的性能的?

在推理过程中,虽然没有对学生模型的特征进行去噪,但扩散模型在 训练阶段 的参与已经帮助学生模型完成了以下关键优化,从而实现性能提升。这种提升主要体现在 训练过程中的知识迁移和特征学习 上,而不是依赖推理阶段的去噪操作。


1. 训练过程中对学生模型特征分布的优化

扩散模型的去噪过程在训练中引导学生模型的特征分布与教师模型更加对齐。具体来说:

(1) 去噪特征作为学习目标
  • 扩散模型在训练阶段将学生模型的原始特征转换为“去噪特征”,这些去噪特征更接近教师特征的潜在分布。
  • 通过 KD Loss(知识蒸馏损失),学生模型被优化为直接生成更接近“去噪特征”的特征。
  • 结果:经过训练,学生模型学会了从噪声中提取更接近教师特征分布的关键信息,从而优化了其内在表示能力。
(2) 学生特征的分布被引导到更好的潜在空间
  • 在训练过程中,学生模型通过模仿去噪后的特征逐步调整自己的特征分布。
  • 去噪特征与教师特征的接近性使得学生特征分布更贴近教师特征,这种分布的对齐在推理时直接反映为更高的性能。

2. 扩散模型训练对学生模型的间接作用 虽然推理过程中不使用扩散模型,但它在训练阶段起到以下两个关键作用:

(1) 提升学生模型的特征质量
  • 通过去噪优化,扩散模型帮助学生模型排除了无意义的噪声,使其在学习过程中更聚焦于教师特征的核心内容。
  • 结果:最终,学生模型在推理时生成的特征天然具有更高的信噪比和更好的语义表达能力。
(2) 学生模型学会了更好的特征生成方式
  • 在训练阶段,扩散模型作为一个“桥梁”,引导学生模型生成特征的方式更接近教师模型。
  • 结果:即使在推理阶段没有去噪过程,学生模型已经内化了这些特征生成策略,从而表现为更高的性能。

3. 自编码器的贡献 教师模型通过自编码器生成潜在特征,这些特征更加精炼和语义丰富。学生模型在训练中通过与这些潜在特征对齐,进一步提高了其对高质量特征的表达能力。

  • 推理中的表现:学生模型已经通过训练学会如何对齐教师模型的潜在特征,因此即使在推理阶段没有去噪过程,学生模型的特征表达能力依然优于训练前。

4. 损失函数的作用 训练中的 KD LossDiffusion Loss 在很大程度上已经完成了知识的迁移和对齐:

  • KD Loss:让学生模型直接模仿去噪后的特征,使其更接近教师特征。
  • Diffusion Loss:提升扩散模型的去噪能力,从而间接优化学生模型生成的特征质量。

推理阶段:学生模型生成的特征已经体现了训练阶段这些损失的优化结果。


5. 总结 尽管推理阶段没有进行去噪操作,但训练阶段扩散模型的引入通过以下方式实现了学生模型性能的提升:

  1. 优化特征生成方式:学生模型在训练过程中学会了如何生成更接近教师特征分布的特征。
  2. 减少噪声干扰:扩散模型在训练中排除了学生特征中的噪声,使其学习更高质量的特征。
  3. 内化潜在空间的表示能力:通过对齐去噪特征和教师潜在特征,学生模型内化了更优的表示能力。
  4. 损失协同优化:KD Loss 和 Diffusion Loss 的协同优化确保学生模型即使在推理时没有去噪,依然表现出更高的特征质量。

因此,学生模型在推理阶段已经具备了更强的表示能力和更高的泛化性能,而不需要额外的去噪步骤。

2 文中模块设计与学习

本文发现由于教师特征的维度较大,DiffKD 中的去噪过程在计算上会非常昂贵。在训练期间,DiffKD 需要将噪声预测网络 Φθ\Phi_\theta 转发 TT 次(我们在我们的方法中使用 T=5T=5)以对学生特征进行去噪,并转发 11 次以使用教师特征训练噪声预测网络。当教师特征的维度较大时,这 T+1T+1 次转发会导致较高的计算成本。为了降低扩散模型的计算成本,本文提出了一种轻量级扩散模型,该模型使用了ResNet中的两个瓶颈块。然后本文遵循潜在扩散模型,并提出使用线性自动编码器模块来压缩通道数量。压缩后的潜在特征用作扩散模型的输入。如图所示,本文的线性自动编码器模块仅由两个卷积组成,一个是用于减少通道数量的编码器,另一个是用于重建教师特征的解码器。

image

2.1 Bottleneck 定义的瓶颈块:

class Bottleneck(nn.Module):
    def __init__(self, in_channels, out_channels, reduction=4):
        super().__init__()
        self.block = nn.Sequential(
            nn.Conv2d(in_channels, in_channels // reduction, 1),
            nn.BatchNorm2d(in_channels // reduction),
            nn.ReLU(inplace=True),
            nn.Conv2d(in_channels // reduction, in_channels // reduction, 3, padding=1),
            nn.BatchNorm2d(in_channels // reduction),
            nn.ReLU(inplace=True),
            nn.Conv2d(in_channels // reduction, out_channels, 1),
            nn.BatchNorm2d(out_channels),
        )

    def forward(self, x):
        out = self.block(x)
        return out + x

2.1.1 瓶颈块的设计学习

  1. 减少计算复杂度:
    通过在第一层卷积中将通道数从 in_channels 减少为 in_channels // reduction(通常 reduction=4),大大降低了后续 3×3 卷积的计算开销。瓶颈结构的核心目标就是以较低的计算成本处理高维输入。

  2. 捕获局部特征:
    中间的 3×3 卷积具有更大的感受野,可以有效捕获局部特征。而通过 1×1 卷积(在第一个和最后一个卷积层)进行降维和升维,进一步优化了参数和计算效率。

  3. 残差连接提高训练效果:
    残差连接 (return out + x) 的加入帮助解决深层网络中的梯度消失问题,使网络更容易训练。同时,残差连接还允许信息在网络中高效流动,减少了网络退化现象。

  4. 正则化效果:
    每一层卷积后紧跟的 Batch Normalization 和 ReLU 激活函数,可以稳定训练过程并提升模型的泛化能力。这些操作还能减少过拟合风险。

  5. 灵活性强:
    通过 reduction 参数,瓶颈块可以适配不同的网络设计需求。例如,在计算资源有限的场景中,可以使用较大的 reduction 值进一步降低复杂度。

  6. 结构简单且可扩展:
    这种模块化的设计使得瓶颈块能够在各种卷积神经网络(如 ResNet、DenseNet 等)中直接复用,便于扩展到不同的模型结构。

    总结:瓶颈块的设计主要通过 降维-计算-升维 的方式减少计算量,同时残差连接和标准化操作提升了网络的训练效率和表现力。这种高效、灵活的设计使得瓶颈块成为现代深度学习模型的重要组成部分。


## ResNet中堆叠了两个瓶颈块
class Bottleneck(nn.Module):
    def __init__(self, in_channels, out_channels, reduction=4):
        super().__init__()
        self.block = nn.Sequential(
            nn.Conv2d(in_channels, in_channels // reduction, 1),
            nn.BatchNorm2d(in_channels // reduction),
            nn.ReLU(inplace=True),
            nn.Conv2d(in_channels // reduction, in_channels // reduction, 3, padding=1),
            nn.BatchNorm2d(in_channels // reduction),
            nn.ReLU(inplace=True),
            nn.Conv2d(in_channels // reduction, out_channels, 1),
            nn.BatchNorm2d(out_channels),
        )

    def forward(self, x):
        out = self.block(x)
        return out + x

2.2 轻量级扩散模型学习

2.2.1 去噪过程的 TT 个时间步详解

DiffKD 方法中,去噪过程通过扩散模型(Diffusion Model)逐步将学生特征中的噪声去除,从而使学生特征更接近教师特征。这一过程分为多个时间步(记为 TT 个步骤),每个时间步都需要将学生特征输入到噪声预测网络 Φθ\Phi_\theta 中,并对噪声进行预测与去除。

具体步骤如下:

  1. 输入的特征初始化

    • 假设学生网络的原始特征为 xstudentx_{\text{student}},在扩散模型的框架中,首先会对其添加某种程度的噪声,得到初始的特征 x~T\tilde{x}_T
    • 这个噪声的添加通常遵循扩散模型的预定义公式,例如逐步添加高斯噪声。
  2. 逐步去噪的过程

    • x~T\tilde{x}_T(添加了大量噪声的特征)开始,扩散模型会逐步进行 TT 个时间步,依次去除噪声,最终得到去噪后的特征 x~0\tilde{x}_0
    • 在每个时间步 t{T,T1,,1}t \in \{T, T-1, \dots, 1\},噪声预测网络 Φθ\Phi_\theta 会接收当前的特征 x~t\tilde{x}_t,预测出特征中的噪声分量,并用以下公式更新去噪后的特征:
      x~t1=f(x~t,Φθ(x~t))\tilde{x}_{t-1} = f(\tilde{x}_t, \Phi_\theta(\tilde{x}_t))
      其中,ff 是一个更新函数,用于根据当前的特征 x~t\tilde{x}_t 和噪声预测结果 Φθ(x~t)\Phi_\theta(\tilde{x}_t) 生成下一步的特征 x~t1\tilde{x}_{t-1}
  3. TT 次前向计算的含义

    • 由于每个时间步 tt 都需要对 Φθ(x~t)\Phi_\theta(\tilde{x}_t) 进行一次前向计算(forward pass),整个去噪过程一共需要 TT 次前向计算。
    • 也就是说,学生特征需要被连续地传递到噪声预测网络 TT 次,才能完成所有时间步的去噪。
  4. 最终输出

    • 在第 TT 个时间步之后,得到最终的去噪特征 x~0\tilde{x}_0,此特征用于接近教师网络的特征 xteacherx_{\text{teacher}},并进一步监督学生网络的训练。

为什么需要 TT 次前向计算?

  • 去噪过程通过扩散模型的多个时间步(TT 步)逐步移除噪声。
  • 在每个时间步中,当前的学生特征 x~t\tilde{x}_t 都需要通过噪声预测网络 Φθ\Phi_\theta 进行一次前向计算,以预测噪声分量并更新到下一步特征 x~t1\tilde{x}_{t-1}
  • 因此,完成所有时间步的去噪过程需要进行 TT 次前向计算。

在该论文中,TT 被设定为 5,这意味着去噪过程需要执行 5 次前向计算(forward passes)。

class DiffusionModel(nn.Module):
    def __init__(self, channels_in, kernel_size=3):
        super().__init__()
        self.kernel_size = kernel_size
        self.time_embedding = nn.Embedding(1280, channels_in)

        if kernel_size == 3:
            self.pred = nn.Sequential(
                Bottleneck(channels_in, channels_in),
                Bottleneck(channels_in, channels_in),
                nn.Conv2d(channels_in, channels_in, 1),
                nn.BatchNorm2d(channels_in)
            )
        else:
            self.pred = nn.Sequential(
                nn.Conv2d(channels_in, channels_in * 4, 1),
                nn.BatchNorm2d(channels_in * 4),
                nn.ReLU(inplace=True),
                nn.Conv2d(channels_in * 4, channels_in, 1),
                nn.BatchNorm2d(channels_in),
                nn.Conv2d(channels_in, channels_in * 4, 1),
                nn.BatchNorm2d(channels_in * 4),
                nn.ReLU(inplace=True),
                nn.Conv2d(channels_in * 4, channels_in, 1)
            )

    def forward(self, noisy_image, t):
        if t.dtype != torch.long:
            t = t.type(torch.long)
        feat = noisy_image
        feat = feat + self.time_embedding(t)[..., None, None]
        ret = self.pred(feat)
        return ret
        

2.3 线性自编码器学习

class AutoEncoder(nn.Module):
    def __init__(self, channels, latent_channels):
        super().__init__()
        self.encoder = nn.Sequential(
            nn.Conv2d(channels, latent_channels, 1, padding=0),
            nn.BatchNorm2d(latent_channels)
        )
        self.decoder = nn.Sequential(
            nn.Conv2d(latent_channels, channels, 1, padding=0),
        )

    def forward(self, x):
        hidden = self.encoder(x)
        out = self.decoder(hidden)
        return hidden, out

    def forward_encoder(self, x):
        return self.encoder(x)

AutoEncoder 中,decoder 部分没有使用 nn.BatchNorm2d 是因为解码器的作用和特性决定了它通常不需要进行特征的归一化处理。以下是详细原因:


1. 编码器和解码器的不同作用
  • 编码器(encoder)

    • 编码器的主要任务是将输入数据映射到一个低维潜在空间,提取特征并压缩数据。
    • 为了稳定训练,编码器需要对中间特征进行归一化(通过 BatchNorm2$),以减小内部协变量偏移,确保每一层输出分布的稳定性。
  • 解码器(decoder)

    • 解码器的任务是从潜在空间还原数据,生成与输入类似的输出。
    • 解码器通常直接输出数据,因此输出的数据通常不需要再归一化。

2. 为什么解码器不需要 BatchNorm2d
  • 直接生成数据

    • 解码器的输出是为了还原输入的原始数据。如果在最后一层使用 BatchNorm2d,可能会改变输出的分布,导致还原数据出现偏差。
  • 避免引入额外偏移

    • $BatchNorm2d$ 会对输出进行归一化并学习一个偏移量和缩放参数。这可能会影响数据的还原质量,特别是当解码器需要精确还原原始输入时。
  • 与还原任务的目标不匹配

    • 还原数据的目标是尽可能接近原始输入,而不是在某种分布中标准化后的形式。直接输出数据更符合这一目标。

3. 解码器层通常的设计原则
  • 解码器层通常使用激活函数(如 ReLUSigmoid)来控制输出范围。
  • 在一些情况下,最后一层可能没有激活函数(直接线性输出),以确保更灵活地还原数据。(本文中提高的线性自编码器)

在该实现中,解码器是通过一个简单的卷积层直接输出数据,保持了原始数据的自由度。


4. 其他情况的补充
  • 如果解码器的输出需要进一步处理,或在某些特定任务中(如对比学习、分类等),可能需要在解码器中引入 BatchNorm2d
  • 但对于重构任务,直接输出数据的方式更常见,避免引入归一化带来的不必要的偏移。

5. 总结

decoder 不使用 BatchNorm2d 是因为:

  1. 解码器直接生成还原数据,归一化可能会影响还原质量。
  2. 解码器的目标是精确还原输入,而不是生成特定归一化后的特征。
  3. 解码器的输出需要保持原始分布的灵活性,而 BatchNorm2d$ 会引入额外的归一化操作。

2.4 自适应噪声匹配模块设计学习

不同训练样本的学生特征噪声水平不同,因此需要为每个样本动态匹配噪声水平。将学生特征的噪声水平调整到一个预定义的标准噪声水平,从而使扩散模型能够从一致的初始时间步进行去噪。根据样本特性,动态调整噪声水平,确保所有样本在扩散模型中的初始噪声水平一致。

class NoiseAdapter(nn.Module):
    def __init__(self, channels, kernel_size=3):
        super().__init__()
        if kernel_size == 3:
            self.feat = nn.Sequential(
                Bottleneck(channels, channels, reduction=8),
                nn.AdaptiveAvgPool2d(1)
            )
        else:
            self.feat = nn.Sequential(
                nn.Conv2d(channels, channels * 2, 1),
                nn.BatchNorm2d(channels * 2),
                nn.ReLU(inplace=True),
                nn.Conv2d(channels * 2, channels, 1),
                nn.BatchNorm2d(channels),
            )
        self.pred = nn.Linear(channels, 2)

    def forward(self, x):
        x = self.feat(x).flatten(1)
        # 下面这行代码是关键
        x = self.pred(x).softmax(1)[:, 0]
        return x

3. 任务拓展

从上述内容和扩散模型的特性来看,该方法除了用于知识蒸馏外,还可以扩展到以下任务,特别是在处理特征对齐、特征生成或分布优化的场景中有很大的应用潜力:


1. 表征学习(Representation Learning)
  • 任务特点:需要在特征空间中学习高质量的表征,以增强模型的泛化能力。
  • 方法贡献
    • 通过去噪特征对齐,学生模型学会生成更纯净、更语义化的表征。
    • 自编码器模块可以用于压缩高维特征并提取潜在特征,这在表征学习任务中非常关键。
  • 可能的应用场景
    • 无监督学习:将去噪视为自监督任务,学习从噪声中恢复特征的潜在能力。
    • 迁移学习:通过去噪特征对齐来适应不同领域的特征分布。

2. 特征对齐与分布优化(Feature Alignment and Distribution Optimization)
  • 任务特点:在不同的模型、域或任务之间对齐特征分布。
  • 方法贡献
    • 噪声适配器和扩散模型的组合可以调整和优化特征分布,适用于分布不一致的任务。
  • 可能的应用场景
    • 领域适配(Domain Adaptation)
      • 通过对源域和目标域的特征进行去噪对齐,减少特征分布之间的差异。
    • 多模态学习
      • 对齐不同模态(如视觉和文本)的特征分布,优化跨模态表示的学习。

3. 压缩模型优化(Model Compression and Acceleration)
  • 任务特点:在不显著降低模型性能的情况下减少计算和存储成本。
  • 方法贡献
    • 自编码器模块和轻量化扩散模型可以显著压缩特征的维度并降低计算复杂度。
  • 可能的应用场景
    • 模型剪枝:在压缩过程中,通过去噪优化确保剪枝后的特征分布仍然保持一致。
    • 知识迁移到边缘设备:为低计算资源的设备提供优化模型。

4. 图像生成与增强(Image Generation and Enhancement)
  • 任务特点:生成高质量图像或增强图像质量。
  • 方法贡献
    • 扩散模型具有强大的生成能力,可以用于从潜在空间中生成清晰图像。
    • 自编码器压缩特征后重建的能力也适合处理图像重建任务。
  • 可能的应用场景
    • 去噪和去模糊:直接用于去除图像中的噪声或模糊。
    • 图像补全:利用扩散模型和自编码器恢复丢失的图像部分。

5. 数据隐私保护与加密(Data Privacy and Encryption)
  • 任务特点:需要对数据进行扰动或加密以保护隐私。
  • 方法贡献
    • 噪声适配器可以通过添加噪声来模拟数据扰动。
    • 自编码器压缩和还原特征可以作为一种加密和解密机制。
  • 可能的应用场景
    • 差分隐私学习:通过控制噪声强度(γ\gamma)实现对特征的保护。
    • 安全特征共享:加密后的特征可以通过扩散模型解密还原。

6. 异常检测与修复(Anomaly Detection and Recovery)
  • 任务特点:识别并修复特征分布中的异常或偏差。
  • 方法贡献
    • 扩散模型的去噪过程可以修正异常特征,使其接近分布中心。
    • 自编码器可以学习到正常特征分布,并标记偏离潜在空间的异常数据。
  • 可能的应用场景
    • 异常检测:识别图像或特征中的异常模式。
    • 数据修复:对异常数据进行修正,使其接近正常分布。

7. 多任务学习(Multi-task Learning)
  • 任务特点:在单个模型中学习多个任务的共享表示。
  • 方法贡献
    • 去噪特征生成和潜在特征对齐为多任务提供高质量共享表示。
    • 自编码器压缩特征后,可以为不同任务生成特定子空间。
  • 可能的应用场景
    • 同时学习分类、检测和分割任务。
    • 不同任务间的特征共享与优化。

8. 高效特征检索(Efficient Feature Retrieval)
  • 任务特点:快速从大规模数据中检索相关特征。
  • 方法贡献
    • 压缩后的潜在特征可以用作高效检索的索引。
    • 去噪过程增强特征的鲁棒性,减少由于噪声导致的检索错误。
  • 可能的应用场景
    • 图像检索:基于清晰特征的高效检索。
    • 文本-图像匹配:在跨模态检索中提升特征表示的精度。

9. 医疗图像处理(Medical Image Processing)
  • 任务特点:从医疗数据中提取关键特征并生成高质量的图像。
  • 方法贡献
    • 去噪优化有助于从低质量或含噪医疗图像中提取特征。
    • 自编码器模块可以用于压缩医疗图像信息并保留关键诊断特征。
  • 可能的应用场景
    • 图像分割:提取高质量特征进行器官或病灶分割。
    • 病理检测:去除干扰,提升疾病检测的准确性。

10. 总结

该方法具备去噪优化、特征对齐、分布重构等能力,除了知识蒸馏,还适合以下任务:

  1. 表征学习;
  2. 特征对齐与分布优化;
  3. 模型压缩与加速;
  4. 图像生成与增强;
  5. 数据隐私保护;
  6. 异常检测与修复;
  7. 多任务学习;
  8. 高效特征检索;
  9. 医疗图像处理。

我们已完成了本论文《Knowledge Diffusion for Distillation》的全文翻译,私信我,回复关键词【KDD】即可获取本文完整翻译PDF+代码实现。你将获得:

✅ 论文中英对照PDF:逐段标注核心公式与技术细节,助你快速吃透论文

✅ 即插即用代码包

✅ 定制化支持:针对你的任务场景,提供模块调优指南