文章作者: Hongwei Zhao
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Hongwei Zhao's Blog!
相关推荐

2025-11-16
大模型之Adaptation
第7章 大模型之Adaptation 使用语言模型(例如在上下文学习中)通过仅给出提示,我们已经能够执行一些任务。然而,提示方法并不适用于全部的下游任务,如自然语言推理(NLI)、问题回答(QA)、将网络表格转换为文本、解析电子健康记录(EHR)等。 下游任务与语言模型的训练数据(例如,Pile数据集)可能在格式和主题上有所不同,或者需要随时间更新新知识。因此,语言模型需要使用特定于任务的数据或领域知识来针对下游任务进行适配。 7.1 引言7.1.1 为什么需要Adaptation?在自动化和人工智能的时代,语言模型已成为一个迅速发展的领域。这些模型被训练为对各种各样的任务作出响应,但它...

2025-11-16
RAG

2025-11-16
大模型应用优化路径
提示工程、RAG和微调 - 哪个才是大模型应用优化的最佳路径?在上一篇文章 【GitHub Copilot产品经理和微软MVP告诉你:企业是否需要训练自己的代码大模型?- 微软MVP全球峰会纪行】中,我以GitHub Copilot作为案例,和大家分析了企业进行私有化模型训练的6个基本要素。但这其实是一个未完成的话题。 企业内部存在大量的私域数据是客观事实,从代码生成角度来看,私有的框架、公用代码组件、内部编码规范、内部接口定义和说明以及内部业务逻辑这些内容客观存在;即便不适合采用私有化训练的方式,我们也必须找到解决这些问题的有效方式。 在本篇中,我将延续这个话题和大家聊一聊几个大家在大...

2025-11-16
LLM微调
大模型微调的三个节点: 节点 1 ChatGPT:由于 ChatGPT 惊人的效果,让大家意识到 AGI 的可能性,并重视起了大模型+开放指令微调+强化学习这种三阶段范式 节点 2 LLaMA:LLaMA 是 Meta 在今年 2 月份推出的基座模型,宣称 LLaMA-13B 在大多数基准测试中超过了 GPT-3 (175B),而 LLaMA-65B 与最好的模型 Chinchilla70B 和 PaLM-540B 相比非常有竞争力。此外,该项目还开源了 7B、13B、30B 和 65B 版本。 节点 3 Stanford Alpaca:在 LLaMA 的基础上,用 Self-Inst...

2025-11-16
Prompt Engineering

2025-11-16
分词
分词语言模型 $p$ 是建立在词元(token)序列的上的一个概率分布输出,其中每个词元来自某个词汇表$V$,如下的形式。 1[the, mouse, ate, the, cheese] Tips: 词元(token)一般在NLP(自然语言处理)中来说,通常指的是一个文本序列中的最小单元,可以是单词、标点符号、数字、符号或其他类型的语言元素。通常,对于NLP任务,文本序列会被分解为一系列的tokens,以便进行分析、理解或处理。在英文中一个”token”可以是一个单词,也可以是一个标点符号。在中文中,通常以字或词作为token(这其中就包含一些字符串分词的差异性,将在后续内容中讲到)...
公告
欢迎来到我的博客!这里分享 AI、机器学习和数学。