跑酷董事局> 正文

AI模擬芯片能效達傳統(tǒng)芯片14倍

時間: 2023-08-24 18:11:10 來源: 科技日報


(資料圖片)

《自然》23日發(fā)表的研究報道了一種能效為傳統(tǒng)數(shù)字計算機芯片14倍的人工智能(AI)模擬芯片。這一由IBM研究實驗室開發(fā)的芯片在語音識別上的效率超過了通用處理器。該技術或能突破當前AI開發(fā)中因算力性能不足和效率不高而遇到的瓶頸。

隨著AI技術的崛起,對能源和資源的需求也隨之上升。在語音識別領域,軟件升級極大提升了自動轉寫的準確率,但由于在存儲器與處理器之間移動的運算量不斷增加,硬件無法跟上訓練和運行這些模型所需的數(shù)以百萬計的參數(shù)。研究人員提出的一個解決辦法是,使用“存內計算”(CiM,或稱模擬AI)芯片。模擬AI系統(tǒng)通過直接在它自己的存儲器內執(zhí)行運算來防止低效,而數(shù)字處理器需要額外時間和能源在存儲器和處理器之間移動數(shù)據(jù)。模擬AI芯片預計能極大提升AI計算的能效,但對此的實際演示一直缺乏。

研究團隊此次開發(fā)了一個14納米的模擬芯片,在34個模塊(tile)中含有3500萬個相變化內存單元。研究團隊用兩個語音識別軟件在語言處理能力上測試了該芯片的效率,這兩個軟件分別是一個小網(wǎng)絡(谷歌語音命令)和一個大網(wǎng)絡(Librispeech語音識別),并在自然語言處理任務上與行業(yè)標準進行對比。小網(wǎng)絡的性能和準確率與當前的數(shù)字技術相當。對于更大的Librispeech模型來說,該芯片能達到每秒每瓦12.4萬億次運算,系統(tǒng)性能估計最高能達到傳統(tǒng)通用處理器的14倍。

研究團隊總結道,該研究在小模型和大模型中同時驗證了模擬AI技術的性能和效率,有望成為數(shù)字系統(tǒng)的商業(yè)可行的替代選擇。

(文章來源:科技日報)

關鍵詞:

責任編輯:QL0009

為你推薦

關于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權所有 © 2020 跑酷財經網(wǎng)

所載文章、數(shù)據(jù)僅供參考,使用前務請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內服務!

聯(lián)系我們:315 541 185@qq.com