1 月 13 日消息,科技媒體 phys 于 1 月 7 日發(fā)布博文,報道稱美國桑迪亞國家實驗室(Sandia National Laboratories)在《自然-機器智能》發(fā)表最新成果,展示了一種能讓神經形態(tài)硬件解決偏微分方程(PDEs)的新型算法 Neurofem。
偏微分方程是模擬流體動力學、電磁場和結構力學等物理現(xiàn)象的數學基石。長期以來,業(yè)界普遍認為類腦計算僅適用于圖像識別或加速人工神經網絡,無法勝任嚴謹的科學計算。然而,這項研究證明,模仿人腦架構的計算機不僅能處理這些復雜方程,而且效率驚人。
傳統(tǒng)超級計算機在求解偏微分方程時需要消耗巨大的計算資源與電力,而神經形態(tài)計算機提供了一條截然不同的路徑。
研究員 Aimone 指出,人腦無時無刻不在進行復雜的“后臺計算”。他舉例稱:“像擊打網球或揮棒擊球這樣的動作控制,本質上是極其復雜的計算。這些在傳統(tǒng)計算機看來屬于‘百億億次級(Exascale)’的高難度任務,大腦卻能以極低的能耗輕松完成?!痹撗芯空抢昧诉@一原理,通過類腦機制大幅降低了科學計算的能源成本。
研究人員開發(fā)了一種名為“Neurofem”的全新算法,成功在英特爾的 Loihi 2 神經擬態(tài)芯片上執(zhí)行了有限元方法(FEM)。
FEM 是工程師常用的“化整為零”計算方法。把一個復雜的物體(如汽車零件)在電腦里切成無數個小塊(單元),通過計算每個小塊的受力情況來預測整體是否會斷裂或變形。

每張卡包含八個英特爾 Loihi-2 芯片,可以堆疊起來。圖源:英特爾
與依賴海量數據訓練的傳統(tǒng) AI 模型不同,Neurofem 完全不需要預先訓練,而是利用芯片架構直接進行數學優(yōu)化。這意味著類腦芯片的應用場景已從單純的模式識別擴展到了復雜的物理仿真領域。
Neurofem 的核心在于對硬件的創(chuàng)造性使用。傳統(tǒng)的有限元分析將物體劃分為無數個相互連接的節(jié)點網格,以模擬受力變形或波的傳播。
研究團隊將這些網格節(jié)點直接映射到神經擬態(tài)芯片上,每個節(jié)點由 8 到 16 個“人造神經元”表示,節(jié)點間的相互作用力則轉化為神經網絡的權重參數。
通過這種方式,原本需要大型計算機通過矩陣乘法求解的線性方程組,被轉化為神經網絡尋找“平衡狀態(tài)”的優(yōu)化過程,從而直接輸出數值解。

在基于 32 塊英特爾 Loihi 2 芯片的測試中,Neurofem 展現(xiàn)了驚人的能效潛力。據研究人員估算,該方法的能耗不到傳統(tǒng)計算機運行同類軟件時的五分之一。
在準確性方面,Neurofem 的計算結果與經典 FEM 軟件相比,誤差僅在千分之幾的范圍內,證明了其高度的可靠性。不過,目前的運算速度仍慢于傳統(tǒng)計算機,這表明該技術目前更適合對能效要求極高而非追求極致速度的場景。

盡管展現(xiàn)了巨大的能效優(yōu)勢,Neurofem 目前仍存在特定的適用范圍。研究指出,該算法僅在處理“稀疏矩陣”方程組(即僅相鄰節(jié)點間存在交互)時才能保持高效,因此尚不能直接套用于所有類型的方程求解。
此外,隨著英特爾推出包含更多神經元的 Hala Point 系統(tǒng),以及像 Spinncloud 這樣的初創(chuàng)公司開發(fā)千片級 SNN 系統(tǒng),神經擬態(tài)計算在物理模擬領域的規(guī)?;瘧糜型M一步加速。

