WA
发表于|更新于|AICILWeight Rectify
|浏览量:
Maintaining discrimination and fairness in class incremental learning
文章作者: Hongwei Zhao
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Hongwei Zhao's Blog!
相关推荐

2025-11-16
FA
Memory-Efficient Incremental Learning Through Feature Adaptation0. 摘要我们提出了一种增量学习的方法,该方法保存了来自先前学习类别的训练图像的特征描述符,而非图像本身,这与大多数现有方法不同。通过保存低维的特征嵌入,可以显著减少内存占用。假设模型会随着新的类别逐步更新,每次仅有新数据可用。这需要在无法访问相应原始训练图像的情况下,将先前存储的特征向量适配到更新后的特征空间。特征适配是通过多层感知机(MLP)学习的,该模型以训练图像上原始网络与更新网络的输出特征对作为训练数据。实验验证表明,这种变换对先前类别的特征具有良好的...

2025-11-16
Architecture Matters in Continual Learning
0. 摘要在持续学习(Continual Learning)领域,大量研究致力于通过设计能够应对分布变化的新算法,来克服神经网络的灾难性遗忘问题。然而,这些研究大多仅专注于为“固定的神经网络架构”开发新的算法,并在很大程度上忽略了使用不同架构的影响。即便是少数修改模型的持续学习方法,也假定架构固定,并试图开发一种算法以在整个学习过程中高效利用该模型。 在这项工作中,我们展示了架构选择会显著影响持续学习的性能,不同架构在记住先前任务和学习新任务的能力之间存在不同的权衡。此外,我们研究了各种架构决策的影响,并提出了一些最佳实践和建议,可以改善持续学习的性能。 1. 引言持续学习(C...

2025-11-16
RKR
Rectification-Based Knowledge Retention for Task Incremental LearningTPAMI 2024 | 无需重训练即可掌握新技能,深度学习模型实现终身学习革命! 摘要在任务增量学习问题中,深度学习模型在训练新类别/任务时会遭受之前见过的类别/任务的灾难性遗忘。当一些测试类别不属于训练类集时,这个问题变得更加困难,即任务增量广义零样本学习问题。我们提出了一种新的方法来解决非零样本和零样本设置中的任务增量学习问题。我们提出的方法,称为基于校正的知识保留(Rectification-based Knowledg...

2025-11-16
COIL
0. 摘要传统的学习系统在封闭世界中针对固定数量的类别进行训练,并且需要预先收集数据集。然而,在现实世界的应用中,新的类别经常出现并且需要增量学习。例如,在电子商务中,每天都会出现新的产品类型;在社交媒体社区中,新的话题频繁出现。在这种情况下,增量模型应能够一次性学习多个新类别而不忘记旧类别。我们发现增量学习中旧类别和新类别之间存在强相关性,这种相关性可以用于关联和促进不同学习阶段的相互学习。因此,我们提出了类增量学习的协同传输(COIL),它通过学习类别间的语义关系来关联增量任务。具体来说,协同传输包括两个方面:前瞻性传输试图通过最优传输的知识增强旧分类器以实现快速模型适应;回顾性传输...

2025-11-16
FOSTER
FOSTER: Feature Boosting and Compression for Class-Incremental Learning | Code 0. 摘要在不断变化的世界中,持续学习新概念的能力是必要的。然而,深度神经网络在学习新类别时会出现灾难性遗忘的问题。许多工作已经提出以缓解这一现象,但大多数方法要么陷入稳定性与可塑性之间的困境,要么需要过多的计算或存储开销。受梯度提升算法的启发,我们提出了一种新的两阶段学习范式 FOSTER,使模型能够自适应地学习新类别。具体来说,我们首先动态扩展新模块以拟合目标模型与原始模型输出之间的残差。接着,我们通过有效的蒸馏策略移除冗...

2025-11-16
ELI
0. 摘要深度学习模型在增量学习新任务时往往会遗忘先前学到的知识。这种行为的发生是因为为新任务优化的参数更新可能与适合旧任务的更新不一致。由此导致的潜在表示不匹配会导致遗忘。在本工作中,我们提出了 ELI(基于能量的潜在对齐器用于增量学习),它首先学习潜在表示的能量流形,使得先前任务的潜在表示具有低能量值,而当前任务的潜在表示具有高能量值。这种学习到的流形用于抵消增量学习过程中发生的表示偏移。我们提出的方法提供的隐式正则化可以作为现有增量学习方法的即插即用模块。我们通过在 CIFAR-100、ImageNet 子集、ImageNet 1k 和 Pascal VOC 数据集上的广泛评估验证...
公告
欢迎来到我的博客!这里分享 AI、机器学习和数学。