《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 中國(guó)電信發(fā)布全球首個(gè)單體稠密萬(wàn)億參數(shù)語(yǔ)義模型Tele-FLM-1T

中國(guó)電信發(fā)布全球首個(gè)單體稠密萬(wàn)億參數(shù)語(yǔ)義模型Tele-FLM-1T

2024-06-20
來(lái)源:快科技

6月19日消息,據(jù)“中國(guó)電信”官微發(fā)文,中國(guó)電信人工智能研究院(TeleAI)聯(lián)合北京智源人工智能研究院發(fā)布全球首個(gè)單體稠密萬(wàn)億參數(shù)語(yǔ)義模型Tele-FLM-1T,成為國(guó)內(nèi)首批發(fā)布稠密萬(wàn)億參數(shù)大模型的機(jī)構(gòu)。

面對(duì)大模型訓(xùn)練過(guò)程中算力消耗巨大的挑戰(zhàn),TeleAI與智源通過(guò)深度研發(fā),結(jié)合模型生長(zhǎng)和損失預(yù)測(cè)等關(guān)鍵技術(shù),成功推出了Tele-FLM系列模型。這一系列模型在算力資源的使用上,僅消耗了業(yè)界普通訓(xùn)練方案的9%,展現(xiàn)出極高的算力能效。

1.png

通過(guò)使用112臺(tái)A800服務(wù)器,TeleAI團(tuán)隊(duì)在短短4個(gè)月內(nèi)完成了3個(gè)模型總計(jì)2.3T tokens的訓(xùn)練,全程無(wú)需任何調(diào)整和重試,充分證明了模型訓(xùn)練的穩(wěn)定性和收斂性。

值得一提的是,Tele-FLM-1T版本即將開(kāi)源,此舉旨在為社區(qū)提供訓(xùn)練萬(wàn)億稠密模型的技術(shù)參考,有效解決萬(wàn)億模型訓(xùn)練收斂難等問(wèn)題,進(jìn)一步推動(dòng)大模型技術(shù)的進(jìn)步。

TeleAI不僅在技術(shù)創(chuàng)新上不斷突破,還積極通過(guò)開(kāi)源方式推動(dòng)大模型技術(shù)的普及和國(guó)產(chǎn)化進(jìn)程。他們接連開(kāi)源了7B、12B、52B參數(shù)規(guī)模的大模型,這些模型在開(kāi)源社區(qū)中引發(fā)了廣泛討論和使用,開(kāi)源模型下載量已超過(guò)萬(wàn)次,吸引了超過(guò)40萬(wàn)用戶(hù)。

2.jpg


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話(huà):010-82306118;郵箱:aet@chinaaet.com。