《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 业界动态 > 智谱GLM-5大模型官宣支持7大国产芯片平台

智谱GLM-5大模型官宣支持7大国产芯片平台

华为、寒武纪、摩尔线程等在列
2026-02-23
來源:快科技
關(guān)鍵詞: 智谱 GLM-5 大模型 华为 寒武纪

2月22日消息,春節(jié)期間國產(chǎn)AI大模型輪番登場,除了DeepSeek V4還在低調(diào)之外,幾家熱門模型都來了,其中智譜GLM-5是其中熱度最高的之一。

從智譜官網(wǎng)介紹來看,GLM-5重點就是提升編程與智能體能力,其參數(shù)量達(dá)到了7440億,是上代GLM-4.X的2倍左右,性能提升很明顯。

此前有海外的AI博主測試其代理編程能力世界第一,綜合編程能力世界第三,僅次于Opus 4.6及Gemini 3 Pro,但超越了Opus 4.5。

發(fā)布之后由于太受歡迎,導(dǎo)致GLM-5需求暴漲,甚至導(dǎo)致算力不夠,用戶體驗下滑,為此智譜還發(fā)布了道歉信,并給出了補償方案,其能力表現(xiàn)可見一斑。

01c7e80a-c99e-4cdf-b916-56b464bcc77b.png

今天智譜還發(fā)布了GLM-5大模型的技術(shù)報告,特別提到了性能提升主要來自于四大技術(shù)創(chuàng)新,具體如下:

1、引入DSA稀疏注意力機制(DeepSeek Sparse Attention, DSA),極大降低了訓(xùn)練與推理成本。

此前的GLM-4.5依賴標(biāo)準(zhǔn)MoE架構(gòu)提升效率,而DSA機制則使GLM-5能夠根據(jù)Token的重要性動態(tài)分配注意力資源。在不折損長上下文理解和推理深度的前提下,算力開銷得以大幅削減。

得益于此,智譜將模型參數(shù)規(guī)模擴展至 744B,同時將訓(xùn)練Token規(guī)模提升至28.5T。

2、構(gòu)建全新的異步RL基礎(chǔ)設(shè)施

基于GLM-4.5時期 slime 框架“訓(xùn)練與推理解耦”的設(shè)計,智譜的新基建進(jìn)一步實現(xiàn)了“生成與訓(xùn)練”的深度解耦,將GPU利用率推向極致。系統(tǒng)支持模型開展大規(guī)模的智能體(Agent)軌跡探索,大幅減緩了以往拖慢迭代速度的同步瓶頸,讓RL后訓(xùn)練流程的效率實現(xiàn)了質(zhì)的飛躍。

3、提出全新的異步Agent RL算法

該算法旨在全面提升模型的自主決策質(zhì)量。GLM-4.5曾依靠迭代自蒸餾和結(jié)果監(jiān)督來訓(xùn)練Agent;而在GLM-5中,研發(fā)的異步算法使模型能夠從多樣化的長周期交互中持續(xù)學(xué)習(xí)。

這一算法針對動態(tài)環(huán)境下的規(guī)劃與自我糾錯能力進(jìn)行了深度優(yōu)化,這也正是GLM-5能夠在真實編程場景中表現(xiàn)卓越的底層邏輯。

4、全面擁抱國產(chǎn)算力生態(tài)

從模型發(fā)布伊始,GLM-5就原生適配了中國GPU生態(tài)。智譜已完成從底層內(nèi)核到上層推理框架的深度優(yōu)化,全面兼容七大主流國產(chǎn)芯片平臺:華為昇騰、摩爾線程、海光、寒武紀(jì)、昆侖芯、天數(shù)智芯與燧原。

據(jù)介紹,GLM-5在單臺國產(chǎn)算力節(jié)點上的性能表現(xiàn),已足可媲美由兩臺國際主流GPU組成的計算集群,不僅如此,在長序列處理場景下,其部署成本更是大幅降低了 50%。

S0892592d-ac34-4ad5-9f50-683ea877e637.png

2.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。