科技日報記者 劉霞
美國俄勒岡州立大學(xué)科研團隊研發(fā)出一種新型AI芯片,成功將大語言模型的能耗降低50%。這項成果于近期在波士頓舉行的IEEE定制集成電路會議上發(fā)布,是半導(dǎo)體領(lǐng)域的重大突破,有望成為解決大語言模型高能耗問題的“綠色鑰匙”。
當(dāng)前,以谷歌“雙子座”和OpenAI的GPT-4為代表的大語言模型,因海量參數(shù)使得算力需求激增,進而導(dǎo)致能源需求急速飆升。
研究團隊指出,問題的關(guān)鍵在于數(shù)據(jù)中心銅基通信鏈路的數(shù)據(jù)傳輸。高速數(shù)據(jù)交換不僅會產(chǎn)生誤差,更會帶來巨大的能源浪費。傳統(tǒng)均衡器雖能糾錯,但其自身就是“電老虎”。一種解決方案是開發(fā)更高效的有線通信芯片。
他們開發(fā)的新芯片能夠借助AI技術(shù),通過訓(xùn)練其上的分類器識別并糾正錯誤,以更智能高效的方式恢復(fù)數(shù)據(jù),從而降低能耗。與傳統(tǒng)設(shè)計相比,新芯片能使大語言模型消耗的能源減半。
研究團隊已著手開發(fā)下一代芯片,預(yù)計將帶來更驚人的能效表現(xiàn)。隨著全球AI算力需求持續(xù)飆升,這項技術(shù)或?qū)⒊蔀榫G色計算的重要推手。