4月14日,騰訊云正式發(fā)布新一代HCC(High-Performance Computing Cluster)高性能計算集群。該集群采用騰訊云星星海自研服務器,搭載英偉達最新代次H800 GPU,服務器之間采用業(yè)界最高的3.2T超高互聯(lián)帶寬,為大模型訓練、自動駕駛、科學計算等提供高性能、高帶寬和低延遲的集群算力。
實測顯示,騰訊云新一代集群的算力性能較前代提升高達3倍。
2022年10月,騰訊完成首個萬億參數(shù)的AI大模型——混元NLP大模型訓練。在同等數(shù)據(jù)集下,將訓練時間由50天縮短到11天。如果基于新一代集群,訓練時間將進一步縮短至4天。
【資料圖】
大模型進入萬億參數(shù)時代,單體服務器算力有限,需要將大量服務器通過高性能網(wǎng)絡相連,打造大規(guī)模算力集群。通過對處理器、網(wǎng)絡架構(gòu)和存儲性能的全面優(yōu)化,騰訊云攻克了大集群場景下的算力損耗問題,能為大模型訓練提供高性能、高帶寬、低延遲的智算能力支撐。
網(wǎng)絡層面,計算節(jié)點間存在海量的數(shù)據(jù)交互需求,隨著集群規(guī)模擴大,通信性能會直接影響訓練效率。騰訊自研的星脈網(wǎng)絡,為新一代集群帶來了業(yè)界最高的3.2T的超高通信帶寬。實測結(jié)果顯示,搭載同樣的GPU卡,3.2T星脈網(wǎng)絡相較前代網(wǎng)絡,能讓集群整體算力提升20%,使得超大算力集群仍然能保持優(yōu)秀的通信開銷比和吞吐性能。并提供單集群高達十萬卡級別的組網(wǎng)規(guī)模,支持更大規(guī)模的大模型訓練及推理。
存儲層面,幾千臺計算節(jié)點同時讀取一批數(shù)據(jù)集,需要盡可能縮短加載時長。騰訊云自研的文件存儲、對象存儲架構(gòu),具備TB級吞吐能力和千萬級IOPS,充分滿足大模型訓練的大數(shù)據(jù)量存儲要求。
底層架構(gòu)之上,針對大模型訓練場景,新一代集群集成了騰訊云自研的TACO Train訓練加速引擎,對網(wǎng)絡協(xié)議、通信策略、AI框架、模型編譯進行大量系統(tǒng)級優(yōu)化,大幅節(jié)約訓練調(diào)優(yōu)和算力成本。
騰訊混元大模型背后的訓練框架AngelPTM,也已通過騰訊云對外提供服務,幫助企業(yè)加速大模型落地。
目前,騰訊混元AI大模型,已經(jīng)覆蓋了自然語言處理、計算機視覺、多模態(tài)等基礎模型和眾多行業(yè)、領域模型。
在騰訊云上,企業(yè)基于TI 平臺的大模型能力和工具箱,可結(jié)合產(chǎn)業(yè)場景數(shù)據(jù)進行精調(diào)訓練,提升生產(chǎn)效率,快速創(chuàng)建和部署 AI 應用。
此前,騰訊多款自研芯片已經(jīng)量產(chǎn)。其中,用于AI推理的紫霄芯片、用于視頻轉(zhuǎn)碼的滄海芯片已在騰訊內(nèi)部交付使用,性能指標和綜合性價比顯著優(yōu)于業(yè)界。其中,紫霄采用自研存算架構(gòu),增加片上內(nèi)存容量并使用更先進的內(nèi)存技術,消除訪存能力不足制約芯片性能的問題,同時內(nèi)置集成騰訊自研加速模塊,減少與CPU握手等待時間。目前,紫霄已經(jīng)在騰訊頭部業(yè)務規(guī)模部署,提供高達3倍的計算加速性能,和超過45%的整體成本節(jié)省。
目前,騰訊云的分布式云原生調(diào)度總規(guī)模超過1.5億核,并提供16 EFLOPS(每秒1600億億次浮點運算)的智算算力。未來,新一代集群不僅能服務于大模型訓練,還將在自動駕駛、科學計算、自然語言處理等場景中充分應用。
以新一代集群為標志,基于自研芯片、星星海自研服務器和分布式云操作系統(tǒng)遨馳,騰訊云正通過軟硬一體的方式,打造面向AIGC的高性能智算網(wǎng)絡,持續(xù)加速全社會云上創(chuàng)新。
菲菲 曉風
責任編輯:
標簽: