avatar
文章
480
标签
104
分类
109
首页
文章
  • 归档
  • 分类
  • 标签
生活
  • 相册
  • 视频
关于
Hongwei Zhao's BlogReference 返回首页
首页
文章
  • 归档
  • 分类
  • 标签
生活
  • 相册
  • 视频
关于

Reference

发表于2025-11-16|更新于2026-03-01|AIPyTorch
|浏览量:

Reference

  1. https://pytorch.org/docs/stable/index.html
  2. https://www.w3cschool.cn/pytorch/pytorch-5ubt3bby.html
  3. https://zhuanlan.zhihu.com/p/103630393
  4. torchvision 库简介
  5. PyTorch 之 torchvision.transforms 详解
  6. https://pytorch-cn.readthedocs.io/zh/latest/torchvision/torchvision-transform/
  7. https://github.com/zhangxiann/PyTorch_Practice
  8. https://github.com/SpringMagnolia/NLPnote
文章作者: Hongwei Zhao
文章链接: https://geeks-z.github.io/Blog/2025/11/16/AI/30.PyTorch/999.Reference/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Hongwei Zhao's Blog!
AIPyTorch
cover of previous post
上一篇
Theory on Mixture-of-Experts in Continual Learning
Theory on Mixture-of-Experts in Continual Learning0. 摘要连续学习(CL)因其能够适应随时间到来的新任务而受到广泛关注。在模型适应新任务时,旧任务的灾难性遗忘(catastrophic forgetting)被确定为 CL 中的一个主要问题。最近,专家混合(MoE)模型已被证明可以通过使用门控网络来稀疏化和分配多个专家之间的不同任务,从而有效减轻 CL 中的灾难性遗忘。然而,对于 MoE 及其对 CL 学习性能影响的理论分析还比较缺乏。本文提供了第一个理论结果,通过过参数化线性回归任务的视角来表征 MoE 在 CL 中的影响。我们通过证...
cover of next post
下一篇
VMamba
论文标题:VMamba: Visual State Space Model 论文地址: https://arxiv.org/abs/2401.10166 代码地址: https://github.com/MzeroMiko/VMamba
相关推荐
cover
2025-11-16
imgaug
imgaug 简介和安装imgaug 简介imgaug是计算机视觉任务中常用的一个数据增强的包,相比于torchvision.transforms,它提供了更多的数据增强方法,因此在各种竞赛中,人们广泛使用imgaug来对数据进行增强操作。 Github 地址:imgaug Readthedocs:imgaug 官方提供 notebook 例程:notebook imgaug 的安装imgaug 的安装方法和其他的 Python 包类似,我们可以通过以下两种方式进行安装 conda12conda config --add channels conda-forgeconda insta...
cover
2025-11-16
timm代码解读
1 创建datasettimm 库通过 create_dataset 函数来得到 dataset_train 和 dataset_eval 这两个 dataset 类。 123456dataset_train = create_dataset( args.dataset, root=args.data_dir, split=args.train_split, is_training=True, batch_size=args.batch_size, repeats=args.epoch_repeats)dataset_eval = create_dataset( ...
cover
2025-11-16
数据相关
计算数据集的均值和标准差1234567891011121314151617181920212223242526272829303132333435363738394041424344import osimport cv2import numpy as npfrom torch.utils.data import Datasetfrom PIL import Imagedef compute_mean_and_std(dataset): # 输入PyTorch的dataset,输出均值和标准差 mean_r = 0 mean_g = 0 mean_b = 0 ...
cover
2025-11-16
DP
单机多卡( Data Parallel,DP) 简介DataParallel 可以帮助我们(使用单进程控)将模型和数据加载到多个 GPU 中,控制数据在 GPU 之间的流动,协同不同 GPU 上的模型进行并行训练(细粒度的方法有 scatter,gather 等等)。 DP 基于单机多卡,所有设备都负责计算和训练网络,除此之外, device[0] (并非 GPU 真实标号而是输入参数 device_ids 首位) 还要负责整合梯度,更新参数。图 1 即为 GPU 0 作为 device[0] 的例子。从图中我们可以看出,有三个主要过程: 过程一(图中红色部分):各卡分别计算损失和...
cover
2025-11-16
model
model.eval()pytorch中model.eval()会对哪些函数有影响? pytorch中model.eval()会对哪些函数有影响? 答:将BN和dropout这些训练和测试时行为不同的层切换到test mode。 Dropout训练和推理时的差异众所周知,dropout是训练的时候将某层的神经元输出以 $p$(如10%)的概率随机置为零,以减缓过拟合。那么测试时呢? 为了保证测试时每次推理的一致性,肯定是不能再随机让神经失活了,那什么都不做,让所有神经元都按正常输出值原样输出可以嘛? 从训练和测试时的输出值尺度一致性来看,答案显然是否定的。设每个神经元原始输出的绝对值均...
cover
2025-11-16
模型容器
模型容器Torch.nn中一个重要的概念是模型容器 (Containers),常用的容器有 3 个,这些容器都是继承自nn.Module。 nn.Sequetial:常用于 block 构建,按照顺序包装多个网络层; nn.ModuleList:常用于大量重复网络构建,通过 for 循环实现重复构建,像 python 的 list 一样包装多个网络层,可以迭代; nn.ModuleDict:常用于可选择的网络层,像 python 的 dict一样包装多个网络层,通过 (key, value) 的方式为每个网络层指定名称; nn.Sequential在传统的机器学习中,有一个步骤是特征...
avatar
Hongwei Zhao
AI Researcher & Developer
文章
480
标签
104
分类
109
Follow Me
公告
欢迎来到我的博客!这里分享 AI、机器学习和数学。
目录
  1. 1. Reference
最新文章
智能体
智能体2025-11-16
Scaling Law
Scaling Law2025-11-16
temp
temp2025-11-16
ProximalGradientMethod
ProximalGradientMethod2025-11-16
ES6语法
ES6语法2025-11-16
© 2024 - 2026 By Hongwei Zhao