avatar
文章
480
标签
104
分类
109
首页
文章
  • 归档
  • 分类
  • 标签
生活
  • 相册
  • 视频
关于
Hongwei Zhao's Blog多模态类增量学习 返回首页
首页
文章
  • 归档
  • 分类
  • 标签
生活
  • 相册
  • 视频
关于

多模态类增量学习

发表于2025-11-16|更新于2026-03-01|AI多模态增量学习MMCLSurvey
|浏览量:
文章作者: Hongwei Zhao
文章链接: https://geeks-z.github.io/Blog/2025/11/16/AI/43.%E5%A4%9A%E6%A8%A1%E6%80%81%E5%A2%9E%E9%87%8F%E5%AD%A6%E4%B9%A0MMCL/00.Survey/00.%E5%A4%9A%E6%A8%A1%E6%80%81%E7%B1%BB%E5%A2%9E%E9%87%8F%E5%AD%A6%E4%B9%A0/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Hongwei Zhao's Blog!
AI多模态增量学习MMCLSurvey
cover of previous post
上一篇
When Continue Learning Meets Multimodal Large Language Model A Survey
cover of next post
下一篇
小样本类增量学习论文阅读
Graph-Based MethodsTOPIC https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123640256.pdf `TOPIC`,即 `TOpology-Preserving knowledge InCrementer` 是一种基于图的增量小样本学习器。作者将每个增量类视为一个新节点,将其插入到已存在的基础分类器嵌入的完全连接图中。它们根据成对关系将信息从基础分类器节点传播到新分类器的节点当中,同时通过分类器嵌入的相似度进行衡量。此外,为了防止图漂移并保留初始图拓扑,作者采用了 anchor loss ...
相关推荐
cover
2025-11-16
Recent Advances of Multimodal Continual Learning A Comprehensive Survey
cover
2025-11-16
When Continue Learning Meets Multimodal Large Language Model A Survey
cover
2025-11-16
Continual Learning With Knowledge Distillation A Survey
0. 摘要持续学习中的首要挑战是缓解灾难性遗忘,使模型在学习新任务的同时保留对先前任务的知识。知识蒸馏(KD)作为一种正则化方法,因其在学习新任务时通过模仿早期模型的输出来保持模型在先前任务上的性能而受到广泛关注,从而减少遗忘。本文对图像分类领域中采用 KD 的持续学习方法进行了全面调查。我们详细分析了 KD 在持续学习方法中的应用,并将其应用分为三种不同的范式。此外,我们根据所使用的知识源类型对这些方法进行了分类,并从损失函数的角度深入探讨了 KD 如何巩固持续学习中的记忆。我们还通过在 CIFAR-100、TinyImageNet 和 ImageNet-100 数据集上对十种集成 K...
cover
2025-11-16
Towards a Unified View of Parameter-Efficient Transfer Learning
Code 0. 摘要微调大型预训练语言模型(PLMs)以适应下游任务已成为自然语言处理(NLP)中的默认学习范式。然而,传统方法通常微调预训练模型的所有参数,随着模型规模和任务数量的增加,这种做法变得不可行。最近的研究提出了多种参数高效的迁移学习方法,只需微调少量(额外的)参数即可达到强大的性能。尽管这些方法效果显著,但其成功的关键因素以及各方法之间的联系尚不清楚。在本文中,我们分解了最新的参数高效迁移学习方法的设计,并提出了一个统一的框架,建立了它们之间的联系。具体来说,我们将它们重新框架化为对预训练模型中特定隐藏状态的修改,并定义了一组设计维度,这些方法在这些维度上有所不同,例如...
cover
2025-11-16
RAPF
0. 摘要类增量学习是一个具有挑战性的问题,其目标是训练一个能够随着时间的推移分类越来越多类数据的模型。随着视觉语言预训练模型(如 CLIP)的发展,这些模型展示了良好的泛化能力,使其在完全冻结参数的情况下在类增量学习中表现出色。然而,通过简单地微调模型来进一步适应下游任务会导致严重的遗忘。大多数现有的预训练模型工作假设当模型获取新知识时,旧类别的遗忘是均匀的。在本文中,我们提出了一种名为自适应表示调整和参数融合(RAPF)的方法。在训练新数据时,我们测量新类别对旧类别的影响,并使用文本特征调整表示。训练完成后,我们采用分解的参数融合来进一步减轻适配器模块微调期间的遗忘。在多个常规基准测...
cover
2025-11-16
PROOF
Paper 0. 摘要类别增量学习(Class-Incremental Learning, CIL)或持续学习是一种在现实世界中非常需要的能力,它要求学习系统在适应新任务的同时,不遗忘先前的任务。虽然传统的 CIL 方法侧重于通过视觉信息来掌握核心特征,但近年来,视觉语言模型(Vision-Language Models, VLM)的进展展示了在文本信息帮助下学习通用表示的潜力。然而,当持续地引入新类别进行训练时,VLM 往往会遭遇对先前知识的灾难性遗忘。将 VLM 应用于 CIL 提出了两个主要挑战:1)如何在不遗忘的情况下适应模型;2)如何充分利用多模态信息。为此,我们提出了 ...
avatar
Hongwei Zhao
AI Researcher & Developer
文章
480
标签
104
分类
109
Follow Me
公告
欢迎来到我的博客!这里分享 AI、机器学习和数学。
最新文章
智能体
智能体2025-11-16
Scaling Law
Scaling Law2025-11-16
temp
temp2025-11-16
ProximalGradientMethod
ProximalGradientMethod2025-11-16
ES6语法
ES6语法2025-11-16
© 2024 - 2026 By Hongwei Zhao