12月9日消息,NVIDIA近期正式推出了CUDA 13.1,官方將其定位為“自2006年CUDA平臺(tái)誕生以來(lái)最大、最全面的升級(jí)”。
此次更新的核心亮點(diǎn)CUDA Tile編程模型,卻引起了業(yè)界關(guān)于NVIDIA“護(hù)城河”是否會(huì)被削弱的討論,知名芯片架構(gòu)師Jim Keller認(rèn)為這可能標(biāo)志著該軟件排他性的終結(jié)。

CUDA Tile是一種基于數(shù)據(jù)塊(tile)的模型,其設(shè)計(jì)目標(biāo)是大幅降低GPU編程的門(mén)檻,開(kāi)發(fā)者可以專(zhuān)注于將數(shù)據(jù)組織成塊并進(jìn)行計(jì)算,而底層復(fù)雜的線程調(diào)度、內(nèi)存布局以及硬件資源映射等工作,則由編譯器和運(yùn)行時(shí)系統(tǒng)自動(dòng)處理。
為支持這一新模型,CUDA 13.1引入了虛擬指令集(Tile IR),并配套發(fā)布了cuTile工具,允許開(kāi)發(fā)者使用流行的Python來(lái)編寫(xiě)基于Tile的GPU Kernel。
芯片設(shè)計(jì)界資深人物、曾參與AMD Zen、蘋(píng)果A系列和特斯拉Autopilot設(shè)計(jì)的Jim Keller認(rèn)為,如果未來(lái)的主流GPU編程逐漸轉(zhuǎn)向這種Tile-based方式,開(kāi)發(fā)者一旦習(xí)慣了“寫(xiě)Tile、硬體自己優(yōu)化”的模式。
那么同一套程序邏輯就更容易移植到不同的GPU硬件上,不像過(guò)去的CUDA C++那樣高度綁定NVIDIA硬件,這可能會(huì)給AMD、Intel或新興的AI公司提供切入機(jī)會(huì)。

