Few-shot Class-incremental Learning A Survey
Few-shot Class-incremental Learning: A Survey0. 摘要Few-shot Class-Incremental Learning (FSCIL) 在机器学习 (ML) 中提出了一个独特的挑战,因为它需要从稀疏标记的训练样本中增量学习 (IL) 新类,同时不忘记先前知识。尽管该领域近期取得进展,但仍是一个活跃的研究方向。本文旨在对 FSCIL 进行全面系统的综述。我们深入探讨了 FSCIL 的多个方面,包括问题定义、不可靠经验风险最小化和稳定性 - 可塑性困境等主要挑战的讨论、通用方案,以及与增量学习 (IL) 和小样本学习 (FSL) 的相关问题...
不平衡类增量学习综述
CVPR2024 GR Gradient Reweighting: Towards Imbalanced Class-Incremental Learning 梯度加权让类增量学习更平衡!(CVPR 2024)
vLLM 部署调用
vLLM 简介vLLM 框架是一个高效的大语言模型推理和部署服务系统,具备以下特性: 高效的内存管理:通过 PagedAttention 算法,vLLM 实现了对 KV 缓存的高效管理,减少了内存浪费,优化了模型的运行效率。 高吞吐量:vLLM 支持异步处理和连续批处理请求,显著提高了模型推理的吞吐量,加速了文本生成和处理速度。 易用性:vLLM 与 HuggingFace 模型无缝集成,支持多种流行的大型语言模型,简化了模型部署和推理的过程。兼容 OpenAI 的 API 服务器。 分布式推理:框架支持在多 GPU 环境中进行分布式推理,通过模型并行策略和高效的数据通信,提升了处理大...
WebDemo部署
环境准备123456----------------ubuntu 22.04python 3.12cuda 12.1pytorch 2.3.0---------------- 本文默认学习者已安装好以上 Pytorch(cuda) 环境,如未安装请自行安装。 pip 换源加速下载并安装依赖包 123456789# 升级 pippython -m pip install --upgrade pip# 更换 pypi 源加速库的安装pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simplepip in...
Lora 微调
本节我们简要介绍如何基于 transformers、peft 等框架,对 Qwen2.5-7B-Instruct 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原理可参见博客:知乎|深入浅出 Lora。 这个教程会在同目录下给大家提供一个 nodebook 文件,来让大家更好的学习。 环境配置在完成基本环境配置和本地模型部署的情况下,你还需要安装一些第三方库,可以使用以下命令: 123456789101112python -m pip install --upgrade pip# 更换 pypi 源加速库的安装pip config set global.index-u...
o1-like 推理链实现
OpenAI o1 model 简介OpenAI o1 系列模型是使用强化学习训练的大语言模型,用于执行复杂推理。o1 模型在回答之前会思考,在向用户做出回应之前可以产生一个长的内部思维链。 o1 模型在科学推理方面表现出色,在编程竞赛(Codeforces)中排名 89%,在美国数学奥林匹克竞赛(AIME)的预选中位列前 500 名,在物理、生物学和化学问题基准测试(GPQA)中超越了人类博士水平。 OpenAI o1 系列模型不仅提高了模型的实用性,还为未来AI技术的发展开辟了新的道路。目前,o1模型包括 o1-preview 和 o1-mini 两个版本,其中 o1-previe...
Lora 微调 SwanLab可视化记录版
本节我们简要介绍基于 transformers、peft 等框架,使用 Qwen2.5-7B-Instruct 模型在中文法律问答数据集 DISC-Law-SFT 上进行Lora微调训练,同时使用 SwanLab 监控训练过程与评估模型效果,并比较0.5B/1.5B/7B/14B模型在此任务上的表现。 Lora 是一种高效微调方法,深入了解其原理可参见博客:知乎|深入浅出 Lora。 训练过程:Qwen2.5-LoRA-Law 目录 SwanLab简介 环境配置 准备数据集 模型下载与加载 集成SwanLab 开始微调(完整代码) 训练结果演示 补充 👋...
LoRAMoE
LoRAMoE1. 背景大模型经过大量语料的无监督预训练后,得到所谓的基座模型,这时候通常还不能很好地完成下游任务,需要经过有监督的微调(SFT)后才能和人类指令对齐,释放其全部潜力。 一般来说,SFT的训练数据不需要太多,但当下游任务增多或者需要强化特定任务的性能时,增加SFT训练数据还是有必要的。如下图的左侧部分,当SFT数据从100K提升到3M时,大部分任务的性能显著增强。 但随着SFT数据的大规模增加,新的问题出现了:如下图的右侧部分所示,在某些评测数据集上性能显著下降,与之相伴的是大模型的参数变化量剧增(见红色线段)。这些数据集属于闭卷问答任务(Closed-Book Ques...
MOLE
Mixture of LoRA Experts引言LoRA模块化架构让研究人员们开始探索组合多个LoRA方法,旨在实现学习特征的联合生成,增强各种任务的性能。当前线性算术组合和参数调优组合都存在一定的缺陷,为了能够动态、高效地组合多个训练后的 LoRA,本文作者提出了LoRA专家混合方法:MOLE,不仅在LoRA组合中提升了性能,还节约了计算开销,保证了LoRA的灵活性。 背景介绍随着大模型的发展,其已经应用至各个领域,例如教育、医疗、金融等。一开始为了能够让大模型适应下游任务,通常需要基于下游数据集进行微调,但是随着不断增加的模型参数量,对模型进行全微调越来越困难(时间长、成本高、迭代...
RNN详解及其实现
文章结构提及 RNN,绝大部分人都知道他是一个用于序列任务的神经网络,会提及他保存了时序信息,但是,为什么需要考虑时序的信息?为什么说 RNN 保存了时序的信息?RNN又存在哪些问题? 本篇内容将按照以下顺序逐步带你摸清 RNN 的细节之处,并使用 PyTorch 来完成一个自己的文本分类模型。 为什么需要 RNN? RNN 理解及其简单实现。 用 RNN 完成文本分类任务。 RNN 存在的问题。 为什么需要 RNN?在现实生活的世界中,有很多的内容是有着前后关系的,比如你所阅读的这段文字,他并不是毫无理由的随机组合,而是我构思之后按顺序写下的一个个文字。除了文字之外,例如人的发音、...
A survey on few-shot class-incremental learning
A survey on few-shot class-incremental learning Neural Networks 2024 摘要虽然大型深度学习模型表现出色,但在实时数据不可用时表现不佳。少样本类别增量学习(Few-shot Class-incremental Learning,FSCIL)对深度神经网络提出了重大挑战,要求其在不忘记之前学过的内容的情况下,仅通过少量标记样本学习新任务。这种设置容易导致灾难性遗忘和过拟合问题,严重影响模型性能。研究 FSCIL 有助于克服深度学习模型在数据量和获取时间方面的局限性,提高机器学习模型的实用性和适应性。本文对 FSCIL 进行...
浅谈学术论文rebuttal
浅谈学术论文rebuttal 浅谈学术论文rebuttal 学术论文是发布自己或团队最新研究进展正式且最快捷的途径,也是和同行交流想法最方便、高效的方式。当同行评议(Peer review)作为学术成果正式发布的必经之路已运行200余年时,用正确的姿势进行review rebuttal便成为提高论文录用机率甚至扭转乾坤的最后一搏。本文从“What is peer review?”、“How to rebuttal?”及“Does rebuttal matter?”三部分来聊聊学术论文(主要针对人工智能领域会议和期刊)rebuttal的那些事。 What is peer review?要...



