英特爾首款A(yù)I專用芯片交付商用,性能亮眼
面對火爆的AI市場,英特爾亮出大招。在 2019英特爾人工智能峰會(Intel AI Summit 2019)上,英特爾宣新推出的英特爾 Nervana 神經(jīng)網(wǎng)絡(luò)處理器(NNP)現(xiàn)已投入生產(chǎn)并完成客戶交付。Nervana系列作為從云端到邊緣的全新AI硬件,相比較此前在部署和性能都有較大提升。此外,在峰會上英特爾還公布了全新一代 Movidius VPU,代號為Keem Bay?捎糜谶吘壝襟w、計算機視覺和推理應(yīng)用,并計劃于明年上半年上市。
Nervana系列正式交付商用
英特爾公司副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao說,作為系統(tǒng)級AI解決方案的一部分,Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器目前已經(jīng)投入生產(chǎn),并已完成客戶交付。
在面向AI推理和AI訓(xùn)練領(lǐng)域,英特爾相繼推出了NNP-T和NNP-I兩款Nervana神經(jīng)網(wǎng)絡(luò)處理器,專為大型數(shù)據(jù)中心而設(shè)計。
其中,NNP-T采用臺積電16nm制程工藝,擁有270億個晶體管,硅片總面積達680平方毫米。
應(yīng)用上,NNP-T具有高度的可編程性,并支持所有主流深度學(xué)習(xí)框架,如TensorFlow、PYTORCH 訓(xùn)練框架和C++深度學(xué)習(xí)軟件庫等。
與此同時,NNP-T在計算、通信和內(nèi)存之間取得了平衡,不管是對于小規(guī)模群集,還是最大規(guī)模的 pod 超級計算機,都可進行近乎線性且極具能效的擴展。
另一方面,NNP-I基于英特爾10nm Ice Lake處理器架構(gòu),同樣支持所有的主流深度學(xué)習(xí)框架,在ResNet50上的效率可達4.8 TOPs/W,功率范圍為10W到50W之間 。
此外,它還具備高能效和低成本,且其外形規(guī)格靈活,非常適合在實際規(guī)模下運行高強度的多模式推理。這兩款產(chǎn)品面向百度、 Facebook 等前沿人工智能客戶,并針對他們的人工智能處理需求進行了定制開發(fā)。
隨著Nervana系列推出,AI解決方案的產(chǎn)品組合也將得到進一步的提升與優(yōu)化,迎接下一波人工智能浪潮的到來。
Movidius VPU 能效達競品6倍
除了Nervana系列,英特爾在峰會上還推出了另外一個重量級產(chǎn)品——下一代英特爾 Movidius VPU ,代號為Keem Bay,將計劃于 2020 年上半年上市。
在性能方面,Keem Bay憑借獨一無二的高效架構(gòu)優(yōu)勢,與上一代VPU相比,其推理性能提升了10倍以上,能效則可以達到競品的6倍。
同時,英特爾還介紹到,Keem Bay的功耗約為30W,比英偉達的TX2快4倍,比華為海思的昇騰310快1.25倍。
根據(jù)官方說法,該芯片擁有新的片上存儲器架構(gòu)。同時,Keem Bay提供的Tops推理量是英偉達Xavier的4倍,在充分利用的情況下,該芯片可幫助客戶獲得50%的額外性能。
“與同類競品相比,Keem Bay的性能比GPU的性能更好,不僅功率、大小和成本都實現(xiàn)了一定程度的降低,而且還進一步補充了我們完整的產(chǎn)品、工具和服務(wù)產(chǎn)品組合。” 英特爾物聯(lián)網(wǎng)事業(yè)部副總裁兼視覺市場和渠道部門總經(jīng)理Jonathan Ballon補充說道。
會上,英特爾還發(fā)布了全新的英特爾DevCloud for the Edge,與英特爾 Distribution of OpenVINO 工具包共同解決開發(fā)人員的主要痛點,即在購買硬件前,能夠在各類英特爾處理器上嘗試、部署原型和測試AI 解決方案。
據(jù)了解,此次峰會更新與發(fā)布的一系列AI產(chǎn)品,將對其整體AI解決方案的產(chǎn)品組合得到進一步的提升與優(yōu)化,并有望在2019年創(chuàng)造超過35億美元的營收。
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼
