"

雷鋒網按:Hot Chips 31本週在美國硅谷舉辦,兩款最大的芯片發佈引人注意。分別是Cerebras最大的深度學習芯片WSE,還有賽靈思發佈全球最大的FPGA。Intel發佈的兩款AI芯片Nervana NNP-T/NNP-I同樣備受關注。不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下,他們採用“觀望式”的AI策略。

"

雷鋒網按:Hot Chips 31本週在美國硅谷舉辦,兩款最大的芯片發佈引人注意。分別是Cerebras最大的深度學習芯片WSE,還有賽靈思發佈全球最大的FPGA。Intel發佈的兩款AI芯片Nervana NNP-T/NNP-I同樣備受關注。不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下,他們採用“觀望式”的AI策略。

AMD的AI策略與Intel和Nvidia有何不同?

Intel、AMD和NVIDIA如何預估AI市場?

NVIDIA預計,其數據中心和人工智能潛在市場(TAM)到2023年將達到500億美元。這包括HPC(高性能計算),DLT(深度學習訓練)和DLI(深度學習推理)。

英特爾估計,其DLT和DLI 潛在市場在2020年將達到460億美元。

AMD尚未發佈任何關於深度學習潛在市場的預測,因為它更專注於從英特爾和NVIDIA獲得市場份額。因此,也沒有看到AMD有專注於人工智能的芯片。

不過,AMD首席執行官Lisa Su表示,我們正在努力成為人工智能領域更重要的參與者。

"

雷鋒網按:Hot Chips 31本週在美國硅谷舉辦,兩款最大的芯片發佈引人注意。分別是Cerebras最大的深度學習芯片WSE,還有賽靈思發佈全球最大的FPGA。Intel發佈的兩款AI芯片Nervana NNP-T/NNP-I同樣備受關注。不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下,他們採用“觀望式”的AI策略。

AMD的AI策略與Intel和Nvidia有何不同?

Intel、AMD和NVIDIA如何預估AI市場?

NVIDIA預計,其數據中心和人工智能潛在市場(TAM)到2023年將達到500億美元。這包括HPC(高性能計算),DLT(深度學習訓練)和DLI(深度學習推理)。

英特爾估計,其DLT和DLI 潛在市場在2020年將達到460億美元。

AMD尚未發佈任何關於深度學習潛在市場的預測,因為它更專注於從英特爾和NVIDIA獲得市場份額。因此,也沒有看到AMD有專注於人工智能的芯片。

不過,AMD首席執行官Lisa Su表示,我們正在努力成為人工智能領域更重要的參與者。

AMD的AI策略與Intel和Nvidia有何不同?

Lisa Su:CPU的侷限性

任何計算性能的討論都始於摩爾定律,但摩爾定律正在放緩。摩爾定律指出,隨著芯片尺寸縮小和晶體管密度增加,計算性能將每兩年翻一番。

在AnandTech Hot Chips 31的報道指出,Lisa Su在主題演講中解釋說,AMD通過各種方式改善了CPU的性能,包括工藝製程、芯片面積、TDP(熱設計功耗)、電源管理、微體系結構和編譯器。

先進工藝製程的貢獻最大,這使得CPU的性能提升了40%。增加芯片尺寸也可以帶來兩位數性能的提升,但這不符合成本效益。

AMD通過微體系架構將EPYC Rome服務器CPU IPC(每個週期的指令)在單線程和多線程工作負載中分別提升了23%和15%。高於行業平均5%-8%的水平。上述所有方法在兩年半內都會使性能翻倍。

Lisa Su:人工智能所需的加速計算

Lisa Su表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級計算機的性能每1.2年翻一番。這意味著過去十年的解決方案將失效。

該行業目前的需求是優化系統的各個部分,使其成為人工智能工作負載的理想選擇。她解釋說,ASIC和FPGA的每瓦特性能最高,CPU最低。通用GPU在每瓦性能方面介於CPU和FPGA之間。

"

雷鋒網按:Hot Chips 31本週在美國硅谷舉辦,兩款最大的芯片發佈引人注意。分別是Cerebras最大的深度學習芯片WSE,還有賽靈思發佈全球最大的FPGA。Intel發佈的兩款AI芯片Nervana NNP-T/NNP-I同樣備受關注。不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下,他們採用“觀望式”的AI策略。

AMD的AI策略與Intel和Nvidia有何不同?

Intel、AMD和NVIDIA如何預估AI市場?

NVIDIA預計,其數據中心和人工智能潛在市場(TAM)到2023年將達到500億美元。這包括HPC(高性能計算),DLT(深度學習訓練)和DLI(深度學習推理)。

英特爾估計,其DLT和DLI 潛在市場在2020年將達到460億美元。

AMD尚未發佈任何關於深度學習潛在市場的預測,因為它更專注於從英特爾和NVIDIA獲得市場份額。因此,也沒有看到AMD有專注於人工智能的芯片。

不過,AMD首席執行官Lisa Su表示,我們正在努力成為人工智能領域更重要的參與者。

AMD的AI策略與Intel和Nvidia有何不同?

Lisa Su:CPU的侷限性

任何計算性能的討論都始於摩爾定律,但摩爾定律正在放緩。摩爾定律指出,隨著芯片尺寸縮小和晶體管密度增加,計算性能將每兩年翻一番。

在AnandTech Hot Chips 31的報道指出,Lisa Su在主題演講中解釋說,AMD通過各種方式改善了CPU的性能,包括工藝製程、芯片面積、TDP(熱設計功耗)、電源管理、微體系結構和編譯器。

先進工藝製程的貢獻最大,這使得CPU的性能提升了40%。增加芯片尺寸也可以帶來兩位數性能的提升,但這不符合成本效益。

AMD通過微體系架構將EPYC Rome服務器CPU IPC(每個週期的指令)在單線程和多線程工作負載中分別提升了23%和15%。高於行業平均5%-8%的水平。上述所有方法在兩年半內都會使性能翻倍。

Lisa Su:人工智能所需的加速計算

Lisa Su表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級計算機的性能每1.2年翻一番。這意味著過去十年的解決方案將失效。

該行業目前的需求是優化系統的各個部分,使其成為人工智能工作負載的理想選擇。她解釋說,ASIC和FPGA的每瓦特性能最高,CPU最低。通用GPU在每瓦性能方面介於CPU和FPGA之間。

AMD的AI策略與Intel和Nvidia有何不同?

Lisa Su指出,每個人工智能工作負載都有不同的計算要求。互連技術是解決方案,因為它將不同的部分互連到同一個系統。她用以下例子解釋了這一點:

  • NAMD(納米級分子動力學)工作負載取決於GPU

  • NLP(自然語言處理)工作負載在CPU、GPU、內存帶寬和連接性之間保持平衡

業界使用傳統方法提高了CPU和GPU的性能。Lisa Su強調,業界應該通過關注互連,I/O、內存帶寬、軟件效率和軟硬件協同優化來提高性能。

AMD的AI策略

Lisa Su表示,AMD已採用CPU / GPU /互連策略來挖掘人工智能和HPC的機會。她說,AMD將在Frontier超級計算機中使用其所有技術。該公司計劃為實現超級計算機全面優化其EYPC CPU和Radeon Instinct GPU。它將通過其Infinity Fabric總線技術進一步增強系統性能,並通過其ROCM(Radeon Open Compute)軟件工具解鎖性能。

與英特爾和NVIDIA不同,AMD沒有專用的人工智能芯片或專用的加速器。儘管如此,蘇還指出,“我們絕對會看到AMD在人工智能方面是一個很重要的參與者。”AMD正在考慮是否要建立一個專用的AI芯片,這一決定將取決於人工智能如何發展。

Su補充說,許多公司正在開發不同的人工智能加速器,如ASIC、FPGA和張量(Tensor)加速器。這些芯片將縮小到最可持續的狀態,然後AMD將決定是否構建可以廣泛應用的加速器。

與此同時,AMD將與第三方加速器製造商合作,並通過其Infinity Fabric互連將其芯片與自己的CPU / GPU連接。這個策略類似於其光線跟蹤策略,NVIDIA去年推出了實時光線跟蹤,但AMD並沒有急於推出這項技術。不過,Su表示AMD將在生態系統完善並且該技術被廣泛採用的情況下引入光線跟蹤技術。

鑑於AMD是一個相對較小的玩家,與擁有充足資源的大型玩家競爭,上述策略具有經濟意義。在已經建立的市場中分享份額可以減少因採用率低而導致產品失敗的風險,並保證最低的回報。

AMD AI戰略與英特爾和NVIDIA戰略的不同

AMD在開發AI芯片之前採用了觀望態度。他們現在做的,是利用其現有技術來滿足AI工作負載。

英特爾開發了全面的技術,包括Xeon CPU、Optane內存、Altera FPGA和互連技術。也在開發獨立GPU Xe。在Hot Chip 31中,英特爾推出了專用於深度學習訓練和深度學習推理的Nervana AI芯片。英特爾的芯片由自己生產,雖然這使英特爾能夠更好地控制其技術,但需要大量的時間和資源。

NVIDIA的AI策略是提供通用GPU以及可用於任何AI應用程序的CUDA軟件支持。它還具有NVLink互連技術。英偉達正與合作伙伴共同探索人工智能新市場。雖然這種策略需要大量研究並且有很高的失敗風險,但這些高風險也會帶來高回報。

雷鋒網編譯,via marketrealist雷鋒網

"

相關推薦

推薦中...