美國對(duì)18個(gè)關(guān)鍵盟友與合作伙伴的芯片銷售無任何限制。除此之外的大多數(shù)國家則將面臨總算力限制,每個(gè)國家在2025年至2027年期間最多可獲得約50000個(gè)AI GPU。美國還將免除集體算力較低的芯片銷售許可,例如向大學(xué)和研究機(jī)構(gòu)的銷售。
雖然每個(gè)季度在企業(yè)AI芯片支出中Nvidia要占有高達(dá)數(shù)百億美元的份額,但仍有許多公司和投資者認(rèn)為AI基礎(chǔ)設(shè)施市場還有空間留給其他贏家,無論是邊緣芯片還是數(shù)據(jù)中心芯片領(lǐng)域。
英特爾美國渠道負(fù)責(zé)人Michael Green表示,當(dāng)英特爾的Gaudi 3加速器芯片成為“2025年渠道可用的產(chǎn)品”時(shí),渠道合作伙伴將在推出該芯片的過程中發(fā)揮“巨大作用”。
此前,光刻機(jī)領(lǐng)域的領(lǐng)軍企業(yè)ASML公布的業(yè)績不及預(yù)期,引發(fā)了市場對(duì)于全球芯片制造業(yè)[產(chǎn)能過剩]的擔(dān)憂,并進(jìn)一步對(duì)人工智能需求增長的真實(shí)性和可持續(xù)性產(chǎn)生了質(zhì)疑。然而,臺(tái)積電隨后發(fā)布的三季度財(cái)報(bào)及隨后的電話會(huì)議,顯著提振了半導(dǎo)體行業(yè)的信心,為美股資本市場帶來了積極信號(hào),猶如一劑[強(qiáng)心針]。
AI芯片通常采用GPU和ASIC架構(gòu)。GPU因其在運(yùn)算和并行任務(wù)處理上的優(yōu)勢成為AI計(jì)算中的關(guān)鍵組件,它的算力和顯存、帶寬決定了GPU的運(yùn)算能力。GPU的核心可分為CudaCore、Tensor Core等;Tensor Core是增強(qiáng)AI計(jì)算的核心,相較于并行計(jì)算表現(xiàn)卓越的Cuda Core,它更專注于深度學(xué)習(xí)領(lǐng)域,通過優(yōu)化矩陣運(yùn)算來加速AI深度學(xué)習(xí)的訓(xùn)練和推理任務(wù)
在當(dāng)下的AI競爭格局下,沒什么能比一場AI濃度爆表的大會(huì),更能快速彰顯自身實(shí)力了,AMD的這場「Advancing AI大會(huì)」,就是印證。
不少解決方案提供商看好AWS投入巨資打造專門針對(duì)AWS基礎(chǔ)設(shè)施優(yōu)化芯片的計(jì)劃,該計(jì)劃將使合作伙伴在AI市場競爭中占據(jù)優(yōu)勢,因?yàn)殡娏Τ杀靖,供?yīng)鏈優(yōu)勢更大。
因此,英特爾在Computex簡報(bào)會(huì)上公布了產(chǎn)品的定價(jià)與基準(zhǔn)測試性能,以期展示Gaudi 3與當(dāng)前“Hopper”H100 GPU的直接比較結(jié)果。
曾幾何時(shí),或者說就在短短幾年之前,數(shù)據(jù)中心芯片市場還是個(gè)資金門檻極高但卻相對(duì)簡單的市場。CPU戰(zhàn)團(tuán)主要有英特爾、AMD和Arm,GPU陣營則是英偉達(dá)、AMD和英特爾等廠商的舞臺(tái)。盡管AI初創(chuàng)公司數(shù)量可觀,但普遍并未在數(shù)據(jù)中心領(lǐng)域建立起真正的話語權(quán)。
英特爾將推出兩款專供中國市場的Gaudi 3 AI加速器,根據(jù)美國出臺(tái)的制裁政策對(duì)性能做出大幅“閹割”。
Precedence Research近期發(fā)布的報(bào)告也顯示,預(yù)計(jì)到2032年,涵蓋CPU、GPU、ASIC以及FPGA等類型的AI芯片市場規(guī)模將從2023年的約219億美元大幅增長至2274.8億美元。
盡管AI芯片種類繁多,GPU因其適應(yīng)性和強(qiáng)大的并行計(jì)算能力,仍是AI模型訓(xùn)練的主流硬件。英偉達(dá)在GPU領(lǐng)域的技術(shù)積累和生態(tài)建設(shè)使其處于領(lǐng)先地位,而國內(nèi)GPU廠商雖在追趕,但仍存在差距。AI應(yīng)用向云、邊、端全維度發(fā)展,模型小型化技術(shù)成熟,數(shù)據(jù)傳輸需求增加,Chiplet技術(shù)降低設(shè)計(jì)復(fù)雜度和成本。
Nvidia在2023年投資者會(huì)議上展示了其GPU發(fā)展藍(lán)圖,計(jì)劃在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期從兩年一次縮短至一年一次,體現(xiàn)產(chǎn)品開發(fā)速度加快。Nvidia的“One Architecture”統(tǒng)一架構(gòu)支持不同環(huán)境下的模型訓(xùn)練和部署,適用于數(shù)據(jù)中心和邊緣計(jì)算。同時(shí),Nvidia的技術(shù)路線圖包括HBM3E高速存儲(chǔ)器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先進(jìn)技術(shù)。
HBM技術(shù)通過提升I/O口數(shù)量和速率,突破內(nèi)存限制,成為AI芯片的強(qiáng)大輔助。HBM3和HBM3e將成為AI服務(wù)器主流配置,預(yù)計(jì)HBM4將于2026年發(fā)布。全球HBM市場預(yù)計(jì)在2024年超百億美元。HBM采用TSV+Bumping和TCB鍵合方式,但散熱效率低下,海力士引入MR-MUF工藝改善。預(yù)計(jì)HBM4將采用混合鍵合Hybrid Bonding技術(shù),3D封裝的核心是混合鍵合與TSV。
今天Nvidia公布了第四季度財(cái)務(wù)業(yè)績,結(jié)果再次超出華爾街預(yù)期,使其股價(jià)在盤后交易中走高。
19 位學(xué)界、業(yè)界人士憂心忡忡、把酒言歡的搞了一篇論文,把 AI 治理聚焦到了“硬件”和“算力”上。
英偉達(dá)發(fā)布了目前最強(qiáng)的AI芯片H200,性能較H100提升了60%到90%,還能和H100兼容
最新消息,OpenAI正在探索自研AI芯片,同時(shí)開始評(píng)估潛在收購目標(biāo)。
AI專用硬件的全面普及還需要不短的時(shí)間,在此之前,唯一辦法就是充分挖掘現(xiàn)有硬件終端本身的計(jì)算能力。