更新时间:
寿光林内电器全国统一售后服务预约热线400客户报修中心
寿光林内电器全国售后服务电话:400-889-3660 400-889-3660 (温馨提示:即可拨打)
寿光林内电器各市区24小时售后客服热线〔2〕400-889-3660、400-889-3660
7天24小时人工电话400-889-3660 400-889-3660客服为您服务、寿光林内电器售后服务团队在调度中心的统筹调配下,线下专业全国网点及各地区售后人员服务团队等专属服务,整个报修流程规范有序,后期同步跟踪查询公开透明。
所有售后团队均经过专业培训、持证上岗,所用产品配件均为原厂直供,
通电专业维修正伦跑步机不通电,不正常工作、滴滴、、显示故障代码等一系列故障。
全国服务区域:北京、上海、南京、宁波、福州、福州、昆山、舟山、洛阳、合肥、九江、天津、成都、廊坊、西安、、长沙、武汉、张家界、深圳、广州、福州、昆明、太原、常州、徐州、镇江,黄石,大冶,铜陵,芜湖,苏州,张家港,太仓等城市。
寿光林内电器全国维修服务网点查询:
北京市(东城区、西城区、崇文区、宣武区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区)
上海市(浦东新区、徐汇区、黄浦区、杨浦区、虹口区、闵行区、长宁区、普陀区、宝山区、静安区、松江区、嘉定区、金山区、青浦区、奉贤区)
成都市(锦江区,青羊区,金牛区,武侯区,成华区,龙泉驿区,青白江区,新都区,温江区,双流区,郫都区)
长沙市(芙蓉区,天心区,岳麓区,开福区,雨花区,望城区)
昆明市(五华区,盘龙区,官渡区,西山区,东川区,呈贡区,晋宁区,富民区)
广州市(荔湾区、越秀区、海珠区、天河区、白云区、黄埔区)
深圳市(罗湖区、福田区、南山区、宝安区、龙岗区、盐田区)
杭州市(上城区、下城区、江干区、拱野区、西湖区、滨江区、余杭区)
武汉市(江岸区、江汉区、硚口区、汉阳区、武昌区、青山区、洪山区、江夏区、沌口区、蔡甸区、东西湖区、经济开发区、东湖高新区、)
西安市(新城区、碑林区、莲湖区、灞桥区、未央区、雁塔区)
苏州市(虎丘区、吴中区、相城区、姑苏区、吴江区)
南京市(玄武区、白下区、秦淮区、建邺区、下关区、浦口区、栖霞区、雨花台区、江宁区、)
宁波市(海曙区、江东区、江北区、北仑区、镇海区)
天津市(和平区、河东区、河西区、南开区、河北区、红桥区、塘沽区、汉沽区、大港区、东丽区、西青区、津南区、北辰区、武清区、宝坻区)
无锡市(梁溪区、滨湖区、惠山区、新吴区、锡山区)
合肥市(蜀山区、包河区、庐阳区、瑶海区、政务区、经济技术开发区、高新区、滨湖新区、新站区)
福州市(鼓楼区、台江区、仓山区、马尾区、晋安区、长乐区)
南宁市(兴宁区、青秀区、西乡塘区、江南区、良庆区)
太原市(小店区、迎泽区、杏花岭区、尖草坪区、万柏林区、晋源区)
南昌市(东湖区、西湖区、青云谱区、湾里区、青山湖区、新建区)
兰州市(城关区、七里河区、西固区、安宁区、红古区)
新智元报道
编辑:LRST
【新智元导读】大连理工大学的研究人员提出了一种基于Wasserstein距离的知识蒸馏方法,克服了传统KL散度在Logit和Feature知识迁移中的局限性,在图像分类和目标检测任务上表现更好。
自Hinton等人的开创性工作以来,基于Kullback-Leibler散度(KL-Div)的知识蒸馏一直占主导地位。
然而,KL-Div仅比较教师和学生在相应类别上的概率,缺乏跨类别比较的机制,应用于中间层蒸馏时存在问题,其无法处理不重叠的分布且无法感知底层流形的几何结构。
为了解决这些问题,大连理工大学的研究人员提出了一种基于Wasserstein距离(WD)的知识蒸馏方法。所提出方法在图像分类和目标检测任务上均取得了当前最好的性能,论文已被NeurIPS 2024接受为Poster
论文地址: https://arxiv.org/abs/2412.08139
项目地址: https://peihuali.org/WKD/
代码地址:https://github.com/JiamingLv/WKD
背景与动机介绍
知识蒸馏(KD)旨在将具有大容量的高性能教师模型中的知识迁移到轻量级的学生模型中。近年来,知识蒸馏在深度学习中受到了越来越多的关注,并取得了显著进展,在视觉识别、目标检测等多个领域得到了广泛应用。
在其开创性工作中,Hinton等人引入了Kullback-Leibler散度(KL-Div)用于知识蒸馏,约束学生模型的类别概率预测与教师模型相似。
从那时起,KL-Div在Logit蒸馏中占据主导地位,并且其变体方法DKD、NKD等也取得了令人瞩目的性能。此外,这些Logit蒸馏方法还可以与将知识从中间层传递的许多先进方法相互补充。
尽管KL-Div取得了巨大的成功,但它存在的两个缺点阻碍了教师模型知识的迁移。
首先,KL-Div仅比较教师和学生在相应类别上的概率,缺乏执行跨类别比较的机制。
然而,现实世界中的类别呈现不同程度的视觉相似性,例如,哺乳动物物种如狗和狼彼此间的相似度较高,而与汽车和自行车等人工制品则有很大的视觉差异,如图1所示。
不幸的是,由于KL-Div是类别对类别的比较,KD和其变体方法无法显式地利用这种丰富的跨类别知识。
图1 左图使用t-SNE展示了100个类别的嵌入分布。可以看出,这些类别在特征空间中表现出丰富的相互关系 (IR)。然而,右图中的KL散度无法显式地利用这些相互关系
其次,KL-Div在用于从中间层特征进行知识蒸馏时存在局限性。图像的深度特征通常是高维的且空间尺寸较小,因此其在特征空间中非常稀疏,不仅使得KL-Div在处理深度神经网络特征的分布时存在困难。
KL-Div无法处理不重叠的离散分布,并且由于其不是一个度量,在处理连续分布时能力有限,无法感知底层流形的几何结构。
图2 基于Wasserstein距离(WD)的知识蒸馏方法的总览图
为了解决这些问题,研究人员提出了一种基于Wasserstein距离的知识蒸馏方法,称为WKD,同时适用于Logit蒸馏(WKD-L)和Feature蒸馏(WKD-F),如图2所示。
在WKD-L中,通过离散WD最小化教师和学生之间预测概率的差异,从而进行知识转移。
通过这种方式,执行跨类别的比较,能够有效地利用类别间的相互关系(IRs),与KL-Div中的类别间比较形成鲜明对比。
对于WKD-F,研究人员利用WD从中间层特征中蒸馏知识,选择参数化方法来建模特征的分布,并让学生直接匹配教师的特征分布。
具体来说,利用一种最广泛使用的连续分布(高斯分布),该分布在给定特征的1阶和2阶矩的情况下具有最大熵。
论文的主要贡献可以总结如下:
提出了一种基于离散WD的Logit蒸馏方法(WKD-L),可以通过教师和学生预测概率之间的跨类别比较,利用类别间丰富的相互关系,克服KL-Div无法进行类别间比较的缺点。
将连续WD引入中间层进行Feature蒸馏(WKD-F),可以有效地利用高斯分布的Riemann空间几何结构,优于无法感知几何结构的KL-Div。
在图像分类和目标检测任务中,WKD-L优于非常强的基于KL-Div的Logit蒸馏方法,而WKD-F在特征蒸馏中优于KL-Div的对比方法和最先进的方法。WKD-L和WKD-F的结合可以进一步提高性能。
用于知识迁移的WD距离
用于Logit蒸馏的离散WD距离
类别之间的相互关系(IRs)
如图1所示,现实世界中的类别在特征空间中表现出复杂的拓扑关系。相同类别的特征会聚集并形成一个分布,而相邻类别的特征有重叠且不能完全分离。
因此,研究人员提出基于CKA量化类别间的相互关系(IRs),CKA是一种归一化的Hilbert-Schmidt独立性准则(HSIC),通过将两个特征集映射到再生核希尔伯特空间(RKHS)来建模统计关系。
首先将每个类别中所有训练样本的特征构成一个特征矩阵,之后通过计算任意两个类别特征矩阵之间的CKA得到类间相互关系(IR)。计算IR的成本可以忽略,因为在训练前仅需计算一次。
由于教师模型通常包含更丰富的知识,因此使用教师模型来计算类别间的相互关系。
损失函数
用和分别表示教师模型和学生模型的预测类别概率,其通过softmax函数和温度对Logit计算得到。将离散的WD表示为一种熵正则化的线性规划:
其中和分别表示每单位质量的运输成本和在将概率质量从移动到
时的运输量;是正则化参数。
定义运输成本与相似度度量成负相关。
因此,WKD-L的损失函数可以定义为:
用于Feature蒸馏的连续WD距离
特征分布建模
将模型某个中间层输出的特征图重塑为一个矩阵,其中第i列表示一个空间特征。
之后,估计这些特征的一阶矩和二阶矩,并将二者作为高斯分布的参数来建模输入图像特征的分布。
损失函数
设教师的特征分布为高斯分布。类似地,学生的分布记为。
两者之间的连续Wasserstein距离(WD)定义为:
其中,和是高斯变量,q表示联合分布。最小化上式可以得到闭集形式的WD距离。此外,为了平衡均值和协方差的作用,引入了一个均值-协方差比率γ,最后损失定义为:
实验分析和比较
研究人员在ImageNet和CIFAR-100上评估了WKD在图像分类任务中的表现,还评估了WKD在自蒸馏(Self-KD)中的有效,并且将WKD扩展到目标检测,并在MS-COCO上进行了实验。
在ImageNet上的图像分类
研究人员在ImageNet的在两种设置下与现有工作进行了比较。设置(a)涉及同质架构,其中教师和学生网络分别为ResNet34和ResNet18;设置(b)涉及异质架构,在该设置中,教师网络为ResNet50,学生网络为MobileNetV1。
对于Logit蒸馏,WKD-L在两种设置下均优于经典的KD及其所有变体。对于特征蒸馏,WKD-F也超过当前的最佳方法ReviewKD;最后,WKD-L和WKD-F的结合进一步提升了性能,超越了强有力的竞争方法。
表1 在ImageNet上的图像分类结果
在CIFAR-100上的图像分类
研究人员在教师模型为CNN、学生为Transformer或反之的设置下评估了WKD方法,使用的CNN模型包括ResNet(RN)、MobileNetV2(MNV2)和ConvNeXt;Transformer模型包括ViT、DeiT和Swin Transformer。
对于Logit蒸馏,WKD-L在从Transformer到CNN迁移知识或反之的设置下始终优于最新的OFA方法。对于特征蒸馏,WKD-F在所有实验设置中排名第一;
研究人员认为,对于跨CNN和Transformer的知识转移,考虑到两者特征差异较大,WKD-F比像FitNet和CRD这样直接对原始特征进行对齐的方法更为合适。
表2 CIFAR-100上跨CNN和Transformer的图像分类结果(Top-1准确率)
在ImageNet上的自蒸馏
研究人员在Born-Again Network(BAN)框架中将WKD方法用于自蒸馏任务(Self-KD)。
使用ResNet18在ImageNet上进行实验,结果如表3所示,WKD-L取得了最佳结果,比BAN的Top-1准确率高出约0.9%,比第二高的USKD方法高出0.6%。这一比较表明,WKD方法可以很好地推广到自蒸馏任务中。
表3 在ImageNet上自蒸馏(Self-KD)的结果
在MS-COCO上的目标检测
研究人员将WKD扩展到Faster-RCNN框架下的目标检测中。对于WKD-L,使用检测头中的分类分支进行Logit蒸馏。对于WKD-F,直接从输入到分类分支的特征中进行知识迁移,即从RoIAlign层输出的特征来计算高斯分布。
对于Logit蒸馏,WKD-L显著优于经典的KD,并略微优于DKD。对于特征蒸馏,WKD-F在两个设置中均显著超过之前的最佳特征蒸馏方法ReviewKD。最后,通过结合WKD-L和WKD-F,表现超过了DKD+ReviewKD。当使用额外的边框回归进行知识迁移时,WKD-L+WKD-F进一步提高并超越了之前的最先进方法FCFD。
表4 在MS-COCO上的目标检测结果。†:使用了额外的边框回归进行知识迁移
结论
Wasserstein距离(WD)在生成模型等多个领域中已展现出相较于KL散度(KL-Div)的显著优势。
然而,在知识蒸馏领域,KL散度仍然占据主导地位,目前尚不清楚Wasserstein距离能否实现更优的表现。
研究人员认为,早期基于Wasserstein距离的知识蒸馏研究未能充分发挥该度量的潜力。
因此,文中提出了一种基于Wasserstein距离的全新知识蒸馏方法,能够从Logit和Feature两个方面进行知识迁移。
大量的实验表明,离散形式的Wasserstein距离在Logit蒸馏中是当前主流KL散度的极具潜力的替代方案,而连续形式的Wasserstein距离在中间层特征迁移中也取得了令人信服的性能表现。
尽管如此,该方法仍存在一定局限性:WKD-L相比基于KL散度的Logit蒸馏方法计算开销更高,而WKD-F假设特征服从高斯分布。
参考资料:
https://arxiv.org/abs/2412.08139