PromptFusion
PromptFusion: Decoupling Stability and Plasticity for Continual Learning0. 摘要连续学习指的是从数据流中持续学习的能力。当前研究主要集中在缓解灾难性遗忘上,而大部分的成功都是以限制新任务的性能为代价的。这种权衡被称为稳定性 - 可塑性困境,对连续学习来说是一个更普遍和更具挑战性的问题。然而,这两个概念之间固有的冲突使得似乎不可能同时对它们两个都找到一个令人满意的解决方案。因此,我们提出一个问题:“是否可能将它们分成两个问题来独立征服?”为此,我们提出了一种基于提示调整的方法,称为 PromptFusion,以实现稳...
Ease
Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning个人总结为了捕获新任务的特征,从提示池中选择和优化特定于实例的提示不可避免地会重写以前任务的提示,进而导致了新旧任务之间的冲突,引发灾难性遗忘。为了解决这些问题,EASE基于Adapter为每个增量任务学习任务特定子空间,以减轻跨任务冲突。此外,为了补偿现有分类器和扩展特征之间的维度不匹配,EASE提出了基于语义引导的原型补充策略,通过利用共现空间中的类别相似性来指导目标空间中的分类器映射。 基于Adapter的子空间扩展...
APER
Revisiting Class-Incremental Learning with Pre-Trained Models Generalizability and Adaptivity are All You Need摘要类增量学习(CIL)旨在适应新出现的类而不遗忘旧类。传统的CIL模型从零开始训练,以不断获取知识。最近,预训练取得了显著进展,使得大量预训练模型(PTM)可用于CIL。与传统方法相反,PTM具有通用的嵌入,可以轻松转移到CIL。在这项工作中,我们重新审视了使用PTM的CIL,并提出CIL的核心因素是模型更新的适应性和知识转移的普适性。1)我们首先揭示了冻结的PTM已经...
InfLoRA
InfLoRA-Interference-Free Low-Rank Adaptation for Continual Learning0. 摘要持续学习要求模型能够顺序学习多个任务。在持续学习中,模型应具备保持其在旧任务上表现(稳定性)和不断适应新任务(可塑性)的能力。最近,参数高效微调(PEFT)方法在持续学习中越来越受欢迎,这种方法通过冻结预训练模型并注入少量可学习参数来适应下游任务。尽管现有的基于 PEFT 的持续学习方法在性能上优于未基于 PEFT 的方法,但大多数方法没有考虑如何消除新任务对旧任务的干扰,从而使模型难以在稳定性和可塑性之间进行良好的权衡。在本文中,我们提出了一...
MOS
MOS: Model Surgery for Pre-Trained Model-Based Class-Incremental Learning 0. 摘要类增量学习(CIL)要求模型在不断获取新类别知识的同时,不忘记旧知识。尽管预训练模型(PTMs)在 CIL 中表现出色,但在学习新概念时仍会发生灾难性遗忘。现有工作试图利用轻量级组件来调整 PTM,但遗忘现象仍然来自参数和检索级别。具体来说,模型的迭代更新导致参数漂移,而错误检索不相关的模块导致推理期间的不匹配。为此,我们提出了模型手术(MOS),以挽救模型免于忘记先前的知识。通过训练任务特定的适配器,我们不断调整 PTM 以适...
LAE
0. 摘要“预训练 → 下游适应”为持续学习(Continual Learning, CL)带来了新的机遇和挑战。尽管最近的最先进 CL 方法通过参数高效调优(Parameter-Efficient-Tuning, PET)适应范式取得了成功,但仅探索了提示(prompt)方法,限制了其仅适用于 Transformer 模型。本文将提示视为 PET 的一种实例,并提出了一种通用的 PET 持续学习框架,称为学习 - 积累 - 集成(Learning-Accumulation-Ensemble, LAE)。PET(例如使用 Adapter、LoRA 或 Prefix)可以用更少的参数和资源...
HiDe-Prompt
0. 摘要基于提示的持续学习利用预训练知识进行下游持续学习,在监督预训练下几乎达到了性能的顶峰。然而,我们的实证研究表明,当前策略在更现实的自监督预训练下未能充分发挥其潜力,而自监督预训练对于处理实践中大量未标记数据至关重要。这主要是由于任务特定知识难以通过提示参数融入到指导表示中,并且在测试时由未指导表示进行预测。为了克服这种次优性,我们对预训练背景下的持续学习目标进行了理论分析,并将其分解为层次化组件:任务内预测、任务身份推断和任务自适应预测。基于这些实证和理论见解,我们提出了层次化分解(HiDe-)提示,这是一种创新方法,通过任务特定提示的集成以及未指导和指导表示的统计信息,显式优...
CPrompt
0. 摘要持续学习使模型能够自主适应不断变化的环境或数据流,而不会忘记旧知识。基于提示的方法建立在冻结的预训练模型上,以高效地学习任务特定的提示和分类器。现有的基于提示的方法在训练和测试之间存在不一致,限制了其有效性。本文揭示了两种类型的不一致性。测试预测是从所有分类器中得出的,而训练仅关注当前任务分类器,缺乏整体对齐,导致分类器不一致。提示不一致表明测试期间选择的提示可能不对应于训练期间与此任务相关的提示。本文提出了一种新的基于提示的方法,称为一致提示(CPrompt),以实现更对齐的训练和测试。具体来说,所有现有的分类器都参与提示训练,从而实现分类器一致性学习。此外,提出提示一致性学...
PILoRA
0. 摘要现有的联邦学习方法在涉及数据隐私和非独立同分布(Non-IID)数据的场景中,已经有效地处理了去中心化学习问题。然而,在实际情况下,每个客户端动态学习新类,要求全局模型能够对所有已见类别进行分类。为了在低通信成本下有效缓解灾难性遗忘和数据异质性问题,我们提出了一种简单而有效的方法,称为 PILoRA。一方面,我们采用原型学习来学习更好的特征表示,并利用原型与类别特征之间的启发式信息设计了一个原型重加权模块,以解决由数据异质性引起的分类器偏差,而无需重新训练分类器。另一方面,我们将增量学习视为学习不同任务向量的过程,并将其编码在不同的 LoRA 参数中。因此,我们提出了增量 Lo...
EWC
Overcoming catastrophic forgetting in neural networks 终身持续学习-可塑权重巩固(Elastic Weight Consolidation) 连续学习之 – Overcoming catastrophic forgetting in neural networks-持续学习EWC代码实现 回过头来梳理了一下EWC方法,在持续终身学习里面很经典的一个方法,Deepmind写的晦涩难懂x,当时折腾了好久才理解。。。。。因为自己有点菜√ 条件和目标论文中,假设存在两个任务A和B (可以推广为旧任务和新任务),数据集分别为D和D。模型学习完...
CoFiMA
Weighted Ensemble Models Are Strong Continual Learners0. 摘要在这项工作中,我们研究了持续学习(Continual Learning, CL)问题,目标是在一系列任务上学习一个模型,假设在学习当前任务数据时,之前任务的数据不可用。持续学习本质上是在学习新任务(即可塑性)和保持先前学习概念的性能(即稳定性)之间进行平衡。为了解决稳定性与可塑性之间的权衡问题,我们提出对先前任务和当前任务的模型参数进行加权集成。这种加权集成模型,我们称之为持续模型平均(CoMA),通过利用可塑性在当前任务上获得高准确率,同时不会偏离先前的权重配置太远,从...
LwF
Learning without ForgettingLwF算法是基于深度学习的增量学习的里程碑之作,在介绍LwF算法之前,我们先了解一些最简单的增量学习方法。 上图展示了一个具有多头网络结构的模型学习新任务的不同策略,其中(a)为已经训练好的基于CNN的原始模型,$\theta_s$ 示不同任务共享的CNN参数,$\theta_o$ 示与原始任务相关的MLP参数【旧任务的分类器】,当加入一个新的分类任务时,我们可以增加一个随机初始化的MLP参数$\theta_n$【新任务分类器】。基于$\theta_s,\theta_o$ 学习$\theta_n$ 方法包括如下几类: 微调(F...



