首頁 資訊 > 創新 > 正文

天天視訊!浪潮信息助力淮海智算中心,千億參數AI大模型訓練算力效率超50%


(資料圖片)

近日,淮海智算中心攜手浪潮信息進行了超大規模參數AI大模型訓練性能測試,實測數據表明,千億參數規模的自然語言AI單體大模型在淮海智算中心計算平臺上的訓練算力效率達53.5%,刷新了業內AI大模型訓練算力效率新高。這意味著淮海智算中心將可為國內生成式AI創新團隊提供高性能、高效率的AI大模型訓練算力服務。

生成式AI需要基于海量的自然語言或多模態數據集,對擁有巨大參數的超大規模AI模型進行訓練,其訓練所需AI算力當量非常高,如以PD(Petaflops-Day)為單位來衡量,OpenAI的GPT-3大模型訓練的算力當量為3640PD,而浪潮"源1.0"大模型的算力當量則為4095PD。

超大規模AI大模型的訓練一般必須在擁有成百上千加速卡的AI服務器集群上進行,如何在AI計算集群上獲得更高的訓練算力效率則會直接影響到模型訓練時長以及算力消耗成本,這對于提升生成式AI研發創新效率有著非常重要的影響。據公開資料表明,GPT-3大模型在其V100?GPU集群上的訓練算力效率為21.3%,而浪潮"源1.0"的訓練算力效率則達到了44.8%。

針對AI大模型訓練的計算特點,浪潮信息AI團隊對淮海智算中心算力系統進行了專業設計,對集群架構、高速互聯、算力調度等方面進行全面優化,在系統架構上,采用單節點集成8顆加速器的AI服務器,節點內加速器間實現超高速P2P通信,節點間建立極低延遲、超高帶寬的Infiniband通信網絡。在大模型訓練技術層面,成功運用了中文巨量AI模型"源1.0"的訓練優化經驗,對分布式訓練策略進行了針對性優化,通過合理設計張量并行、流水并行和數據并行,精準調整模型結構和訓練過程的超參數,最終實現了千億參數規模AI大模型的訓練算力效率達到53.5%。

千億參數AI模型結構及其實際性能表現

關鍵詞: 浪潮信息 模型結構 自然語言 通信網絡 性能測試

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2018 創投網 - www.zzkede.cn All rights reserved
聯系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3