📢 #Gate观点任务# 第九十期精彩啟程!調研 Pell Network (PELL) 項目,在Gate.io動態發佈您的看法觀點,瓜分 $100 GT!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 GT 獎勵,獲獎文章還將被標記為“精選”!
👉 參與方式:
調研$PELL項目,發表你對項目的見解。
帶上$PELL現貨交易鏈接:https://www.gate.io/trade/PELL_USDT
推廣$PELL Launchpool挖礦活動,質押$BTC、$PELL、$GT參與瓜分7,002,801 $PELL挖礦獎勵:https://www.gate.io/launchpool/PELL?pid=237
推廣$PELL上線狂歡活動,充值、交易、註冊享三重福利,參與瓜分$30,000 PELL獎勵:https://www.gate.io/announcements/article/43851
建議創作的主題方向:
🔹 什麼是 Pell Network?
🔹 Pell Network 在BTC再質押方面有什麼優勢?
🔹 $PELL 代幣經濟模型是如何運作的?
您可以選擇以上一個或多個方向發表看法,也可以跳出框架,分享主題以外的獨到見解。
注意:帖子不得包含除 #Gate观点任务# 和 #PELL# 之外的其他標籤,並確保你的帖子至少有 60 字,並獲得至少 3
挑戰英偉達H100霸權! IBM模擬人腦造神經網絡芯片,效率提升14倍,破解AI模型耗電難題
原文來源:新智元
最近,IBM推出一款全新的14nm模擬AI芯片,效率達到了最領先GPU的14倍,可以讓H100物有所值。
目前,生成式AI發展道路上最大的攔路虎,就是它驚人的耗電量。 AI所需的資源,是不可持續增長的。
而IBM,一直在研究重塑AI計算的方法。他們的一大成就,就是模擬內存計算/模擬人工智能方法,就可以藉助神經網絡在生物大腦中運行的關鍵特徵,來減少能耗。
這種方法,可以最大限度地減少我們在計算上花費的時間和精力。
英偉達的壟斷,要被顛覆了?
根據外媒Insider的報導,半導體研究公司SemiAnalysis的首席分析師Dylan Patel分析,ChatGPT每天的運行成本超過了70萬美元。
ChatGPT需要大量算力,才能根據用戶的提示生成回答。絕大部分成本,都是在昂貴的服務器上產生的。
在往後,訓練模型和運行基礎設施的成本只會越來越飆升。
這些模擬芯片與數字芯片有不同的構建方式,數字芯片可以操作模擬信號,理解0到1之間的漸變,但只適用於不同的二進制信號。
模擬內存計算/模擬AI
而IBM的全新方法,就是模擬內存計算,或簡稱模擬AI。它藉助神經網絡在生物大腦中運行的關鍵特徵,來減輕了能耗。
在人類和其他動物的大腦中,突觸的強度(或「權重」)決定了神經元之間的交流。
對於模擬AI系統,IBM將這些突觸權重存儲在納米級電阻存儲器器件(如相變存儲器PCM)的電導值中,並利用電路定律,減少在存儲器和處理器之間不斷發送數據的需求,執行乘法累加(MAC)運算——DNN中的主要運算。
現在為很多生成式AI平台提供動力的,是英偉達的H100和A100。
然而,如果IBM對芯片原型進行迭代,並且成功推向了大眾市場,這種新型芯片就很有可能取代英偉達,成為全新的支柱。
並且,這款芯片模仿了人腦的運作方式,由微芯片直接在內存中執行計算。
這款芯片的系統能夠實現高效的語音識別和轉錄,準確性接近了數字硬件設施。
而這款芯片大約達到了14倍,而之前的模擬表明,這種硬件的能效甚至達到了當今最領先GPU的40倍到140倍。
這場生成式AI革命,才剛剛開始。而深度神經網絡(DNN)徹底改變了AI領域,隨著基礎模型和生成式AI的發展而日益突出。
然而,在傳統的數學計算架構上運行這些模型,會限制它們的性能和能源效率。
雖然在開髮用於AI推理的硬件方面,也取得了不少進展,但其中許多架構,在物理上拆分了內存和處理單元。
這就意味著,AI模型通常存儲在離散的內存位置,要完成計算任務,就需要在內存和處理單元之間不斷打亂數據。這個過程會大大減慢計算速度,限制可實現的最大能效。
IBM的基於相變存儲器(PCM)的人工智能加速芯片,擺脫了這種限制。
相變存儲器(PCM)可以實現計算存儲融合,在存儲器內直接進行矩陣向量乘法,避免了數據傳輸的問題。
同時,IBM的模擬AI芯片通過硬件級的計算存儲融合,實現了高效的人工智能推理加速,是這一領域的重要進展。
模擬AI的兩大關鍵挑戰
為了將模擬AI的概念變為現實,需要克服兩個關鍵挑戰:
存儲器陣列的計算精度必須與現有數字系統相當
存儲器陣列能與其他數字計算單元以及模擬人工智能芯片上的數字通信結構無縫對接
IBM在Albany Nano的技術中心製造了著這種基於相變內存的人工智能加速芯片。
該芯片由64個模擬內存計算內核組成,每個內核包含256×256的交叉條陣突觸單元。
並且,每個芯片中都集成了緊湊的時基模數轉換器,用於在模擬和數字世界之間進行轉換。
而芯片中的輕量級數字處理單元,也可執行簡單的非線性神經元激活函數和縮放操作。
每個核心可看作一個tile,可以進行與深度神經網絡(DNN)模型的一個層(比如卷積層)相關的矩陣向量乘法及其他運算。
權重矩陣被編碼成PCM器件的模擬電導值存於芯片上。
在芯片的核心陣列中間集成了一個全局數字處理單元,用來實現一些比矩陣向量乘法更複雜的運算,這對某些類型的神經網絡(如LSTM)執行是關鍵的。
芯片上在所有核心以及全局數字處理單元之間集成了數字通信通路,用於核心之間以及核心與全局單元之間的數據傳輸。
b:芯片不同組件的示意圖,包括64個核心、8個全局數字處理單元和核心間的數據鏈路
c:單個基於PCM的內存計算核心的結構
d:全局數字處理單元的結構,用於LSTM相關計算
利用該芯片,IBM對模擬內存計算的計算精度進行了全面的研究,並在CIFAR-10圖像數據集上獲得了92.81%的精確度。
b:將該網絡映射到芯片上的方式
c:硬件實現的CIFAR-10測試精度
這是目前所報導的使用類似技術的芯片中精度最高的。
IBM還將模擬內存計算與多個數字處理單元和數字通信結構無縫結合。
該芯片8位輸入輸出矩陣乘法的單位面積吞吐量為400 GOPS/mm2,比以前基於電阻式存儲器的多核內存計算芯片高出15倍以上,同時實現了相當的能效。
而在字符預測任務和圖像標註生成任務中,IBM通過在硬件上測量的結果與其他方法的比較,展示了相關任務在模擬AI芯片上運行的網絡結構、權重編程以及測量結果的信息。
**英偉達的護城河深不見底? **
英偉達的壟斷,有這麼容易打破嗎?
Naveen Rao是一名神經科學出身的科技企業家,他曾試圖與全球領先的人工智能製造商英偉達競爭。
「每個人都是基於英偉達進行開發的。」Rao說,「如果你想推出新的硬件,你就得趕上去和英偉達競爭。」
Rao在英特爾收購的一家初創企業中致力開發旨在取代英偉達GPU的芯片,但在離開英特爾後,他在自己領導的軟件初創公司MosaicML裡使用了英偉達的芯片。
Rao表示,英偉達不僅在芯片上與其他產品拉開了巨大的差距,還通過創建一個大型的AI程序員社區,實現了芯片之外的差異化——
AI程序員一直在使用該公司的技術進行創新。
這家曾經的行業新貴之所以能夠取得AI芯片製造的主導地位,是因為它很早就認識到了AI發展的趨勢,為這些任務專門定制了芯片,並開發了促進AI開發的關鍵軟件。
從那時起,英偉達的聯合創始人兼CEO黃仁勳,就在不斷地提高英偉達標準。
據研究公司Omdia調查,雖然谷歌、亞馬遜、Meta、IBM和其他公司也生產人工智能芯片,但到目前,英偉達佔人工智能芯片銷售額的70%以上。
今年6月,英偉達的市值已突破1萬億美元,成為全球市值最高的芯片製造商。
英偉達,重塑計算方式
1993年,黃仁勳聯合創立了英偉達,主要的業務是製造在電子遊戲中渲染圖像的芯片。當時的標準微處理器擅長按順序執行複雜的計算,但英偉達生產的GPU可以同時處理多個簡單任務。
2006年,黃仁勳進一步推進了這一進程。他發布了名為CUDA的軟件技術,該技術可幫助GPU為新任務編程,使GPU從單一用途的芯片轉變為更通用的芯片,能承擔物理和化學模擬等領域的其他工作。
而據該英偉達估計,這項工作在十年間耗資超過300億美元,使英偉達不再僅僅是一個零部件供應商。除了與頂尖科學家和初創企業合作,公司還組建了一支團隊,直接參與人工智能活動,如創建和訓練語言模型。
此外,從業者的需要導致英偉達開發了CUDA以外的多層關鍵軟件,其中也包括數百條預構建代碼的庫。
在硬件方面,英偉達因每兩三年就能持續提供更快的芯片而贏得聲譽。 2017年英偉達開始調整GPU以處理特定的AI計算。
去年9月,英偉達宣布生產名為H100的新型芯片,並對其進行了改進,以處理所謂的Transformer運算。這種運算被證明是ChatGPT等服務的基礎,黃仁勳稱之為生成式人工智能的「iPhone時刻」。
IBM的模擬AI芯片,有這個可能嗎?
參考資料: