参考资料: Pytorch 并行训练(DP, DDP)的原理和应用 Pytorch 中单机多卡分布式训练 Training Neural Nets on Larger Batches: Practical Tips for 1-GPU, Multi-GPU & Distributed setups DISTRIBUTEDDATAPARALLEL Pytorch 分布式训练(DP/DDP) DISTRIBUTED COMMUNICATION PACKAGE - TORCH.DISTRIBUTED pytorch 多 gpu 并行训练 PyTorch 源码解读之 DP & DDP:模型并行和分布式训练解析