大幅提升GPU可用顯存量,螞蟻、上海交大技術(shù)成果GMLake入選國際頂會
-
收藏
0
近日,從螞蟻集團獲悉,螞蟻集團和上海交通大學(xué)合作的技術(shù)成果GMLake被計算機體系結(jié)構(gòu)四大頂級會議之一的ASPLOS 24接收。
據(jù)悉,這篇名為《GMLake: Efficient and Transparent GPU Memory Defragmentation for Large-scale DNN Training with Virtual Memory Stitching》的研究成果,針對業(yè)界普遍存在的大模型訓(xùn)練顯存效率問題,提出了一種高效的動態(tài)顯存組合技術(shù)VMS(Virtual Memory Stitching),最高提高33%的GPU可用顯存,使顯存使用更為高效,進而緩解了“內(nèi)存墻”問題。ASPLOS會議曾推動了多核處理器、深度學(xué)習(xí)處理器等計算機系統(tǒng)領(lǐng)域的核心創(chuàng)新,在學(xué)術(shù)界和工業(yè)界擁有顯著的影響力。

以ChatGPT為代表的生成式大模型正在引領(lǐng)當(dāng)前AI發(fā)展。為了訓(xùn)練得到如此高效的大模型,需要強大和昂貴的基礎(chǔ)算力支撐。而當(dāng)前制約高效訓(xùn)練的因素中,除了算力,顯存容量也非常關(guān)鍵,即“內(nèi)存墻”問題。
業(yè)界已有很多優(yōu)化工作,包括模型、框架層的改造,甚至為之犧牲模型精度。且業(yè)界廣泛使用的訓(xùn)練框架如PyTorch存在顯存管理效率不高,顯存資源碎片化的現(xiàn)象,即顯存中出現(xiàn)了很多的空洞,使得零散的顯存資源難以有效利用起來,特別是當(dāng)使用了業(yè)界多種優(yōu)化手段之后,碎片化問題反而更為突出,使得本就緊缺的顯存資源浪費嚴重。
對此,螞蟻集團和上海交通大學(xué)提出了一種高效的動態(tài)顯存組合技術(shù)框架,稱為GMLake。該框架采用虛擬、物理兩層指針,將碎片化的顯存靈活地拼接起來,從而實現(xiàn)了聚零為整。GMLake對典型大模型如GPT、GLM、Vicuna等進行了詳細評測,最高擴大了約33%的可用顯存,即在80GB的A100 GPU上節(jié)省約25GB的顯存,訓(xùn)練吞吐提高最多4倍。
據(jù)了解,GMLake的使用非常友好,目前已在PyTorch框架上完成集成,對上層模型代碼和框架代碼完全透明,也就是說模型不需要修改任何代碼即可使用,真正做到了開箱即用。
目前,GMLake的代碼已經(jīng)開源到了GLake項目中。GLake是螞蟻集團自研的GPU顯存+傳輸優(yōu)化開源項目,在訓(xùn)練、推理框架底層以及系統(tǒng)層對顯存和傳輸進行一體優(yōu)化,更好應(yīng)對“內(nèi)存墻”和“傳輸墻”挑戰(zhàn)。
免責(zé)聲明:本網(wǎng)站所有文章僅作為資訊傳播使用,既不代表任何觀點導(dǎo)向,也不構(gòu)成任何投資建議。】
猜你喜歡
螞蟻集團發(fā)布2024年消費者權(quán)益保護年報:金融普惠教育系列行動覆蓋1.2億人次
2月13日,螞蟻集團在官網(wǎng)發(fā)布《2024年消費者權(quán)益保護年報》。螞蟻集團收購好大夫,韓歆毅:加大AI技術(shù)投入 讓看病就醫(yī)更簡單
螞蟻集團收購好大夫在線塵埃落定。螞蟻集團捐贈 500 萬元,馳援西藏日喀則地震災(zāi)區(qū)
螞蟻集團決定,在上海市援藏干部聯(lián)絡(luò)組指導(dǎo)下,通過螞蟻公益基金會向日喀則災(zāi)區(qū)捐贈 500 萬元,用于受災(zāi)地區(qū)的救援安置和災(zāi)后重建工作。
WEMONEY研究室
共2597篇文章
追蹤數(shù)字金融發(fā)展動向,探索金融科技融合之道,解讀傳統(tǒng)金融機構(gòu)轉(zhuǎn)型創(chuàng)新。