我国科学家发明混合并行新算法,训练 AI 速度近乎翻倍

我国科学家发明混合并行新算法,训练 AI 速度近乎翻倍

4.8
0热度
DeepSpeed

IT之家 5 月 29 日消息,中国科学报今天(5 月 29 日)报道,我国科学家联合发明混合并行新算法 GroPipe,首次融合流水线模型并行与数据并行,训练 AI 速度近乎实现翻倍。IT之家援引博文介绍,该算法由西北农林科技大学信息工程学院智能计算与农业信息系统团队刘斌教授带领,携手美国纽约州立大学和云南大学,相关论文联合发表在国际计算机体系结构领域权威期刊《IEEE Transaction

IT之家 5 月 29 日消息,中国科学报今天(5 月 29 日)报道,我国科学家联合发明混合并行新算法 GroPipe,首次融合流水线模型并行与数据并行,训练 AI 速度近乎实现翻倍。

IT之家援引博文介绍,该算法由西北农林科技大学信息工程学院智能计算与农业信息系统团队刘斌教授带领,携手美国纽约州立大学和云南大学,相关论文联合发表在国际计算机体系结构领域权威期刊《IEEE Transactions on Computers》(TC,CCF A 类期刊)上。

西北农林科技大学信息工程学院教授刘斌担任第一作者,纪泽宇老师与云南大学副教授何臻力共同担任通讯作者,纽约州立大学教授李克勤(欧洲科学院院士,并行与分布式计算领域公认的顶尖学者,国家特聘教授)作为重要合作者。

研究指出,在训练大型深度卷积神经网络(DCNNs)方面,使用越来越大的数据集来提高模型精度已变得非常耗时,数据并行(DP)和流水线模型并行(PMP)等分布式训练方法虽然提供了可行解决方案,但面临负载不平衡和显著的通信开销等挑战。

为此团队提出了 GroPipe 算法架构,协同整合 PMP 和 DP,采用了基于性能预测技术的自动模型分割算法,确保负载平衡并便于在 PMP 中进行定量性能评估。

GroPipe 方法整体框架图。西北农林科技大学供图

该方法首次将流水线模型并行与数据并行相融合,构建“组内流水线 + 组间数据并行”的分层训练架构,并通过自动模型划分算法(AMPA)实现计算负载的动态均衡调度,大幅提升 GPU 资源利用率。

在一台 8-GPU 服务器上广泛测试后,发现在 ImageNet 数据集上,GroPipe 方法相较于主流方案(如 DP、Torchgpipe、DAPPLE 和 DeepSpeed)表现出卓越优势:ResNet 系列平均加速比达 42.2%,VGG 系列达 79.2%;在 BERT-base 模型训练中,性能提升最高可达 51%。

IT之家附上参考地址

  • AI 训练速度翻倍!我国科学家发明混合并行新算法

  • GroPipe: A Grouped Pipeline Hybrid Parallel Method for Accelerating DCNNs Training

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

立即下载

相似资讯

评论列表 共有 0 条评论

暂无评论
首页 发现
看过 我的