迁移学习(Transfer Learning)根据 领域 和 任务的相似性,可以这样划分:

根据 源Domain和目前Domain 之间的关系,源Task 和 目标Task之间的关系,以及任务方法更详细的整理为下表:

学习类型 源Domain & 目标Domain 源Task & 目标Task 源Data & 目标Data 任务方法
传统机器学习 相同 相同 有标签 | 有标签
归纳式迁移学习 相同/相关 相关 多任务学习 - 有标签 | 有标签 分类回归
自我学习 - 无标签 | 有标签
直推式迁移学习 相关 相同 有标签 | 无标签 分类回归
无监督迁移学习 相关 相关 无标签 | 无标签 聚类降维

实际上,归纳式迁移学习 是应用最广泛的一种方法,从这点上看,迁移学习更适合 有标签的应用域。根据技术方法,我们将迁移学习的方法划分为:

说明 归纳式 直推式 无监督
基于样本的迁移学习 通过调整源Domain的标签(辅助)和目标Domain标签的权重,协同训练得到目标模型。典型方法:TrAdaBoost
基于特征的迁移学习 找到“好”特征来减少源Domain和目标Domain之间的不同,能够降低分类、回归误差。典型方法:Self-taught learning, multi-task structure learning
基于参数的迁移学习 发现源Domain和目标Domain之间的共享参数或先验关系。典型方法:Learning to learn, Regularized multi-task learning
基于相关性的迁移学习 建立源Domain和目标Domain之间的相关知识映射。典型方法:Mapping方法

References