"

芯頻道8月20日消息,美國獨角獸創業公司Cerebras推出了史上最大尺寸的AI芯片,略大於標準iPad,號稱“晶圓級引擎”(Cerebras Wafer Scale Engine,簡稱WSE)。該公司表示,單個芯片可以驅動複雜的人工智能(AI)系統,從無人駕駛汽車到監控軟件。


"

芯頻道8月20日消息,美國獨角獸創業公司Cerebras推出了史上最大尺寸的AI芯片,略大於標準iPad,號稱“晶圓級引擎”(Cerebras Wafer Scale Engine,簡稱WSE)。該公司表示,單個芯片可以驅動複雜的人工智能(AI)系統,從無人駕駛汽車到監控軟件。


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米


"

芯頻道8月20日消息,美國獨角獸創業公司Cerebras推出了史上最大尺寸的AI芯片,略大於標準iPad,號稱“晶圓級引擎”(Cerebras Wafer Scale Engine,簡稱WSE)。該公司表示,單個芯片可以驅動複雜的人工智能(AI)系統,從無人駕駛汽車到監控軟件。


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米

Wafer-Scale Engine和目前最大的AI芯片之一的並排比較


Cerebras的芯片尺寸是Nvidia領先芯片尺寸的五十七倍,“V100”佔據了當今人工智能的主導地位。擁有比芯片更多的存儲器電路:18千兆字節,是Nvidia部件的3000倍。WSE將邏輯運算、通訊和存儲器集成到單個硅片上,是一種專門用於深度學習的芯片。它創下了4項世界紀錄:

晶體管數量最多的運算芯片:2萬億個晶體管

芯片面積最大:46,225 mm2的硅

片上緩存最大:18 GB超快速片上存儲器(SRAM)

運算核心最多:400,000個AI可編程內核


此外,該芯片還將擁有100 Petabits / s結構帶寬、稀疏性的原生優化(避免乘以零),以及軟件與標準AI框架(如TensorFlow和PyTorch)的兼容性。

據芯頻道獲悉,WSE由臺積電代工,但是並沒有使用當前最先進的7nm工藝,而是使用相對較老的16nm製程工藝製造的300毫米晶圓切割而成。臺積電運營高級副總裁JK Wang表示:“我們對與Cerebras合作製造WSE非常滿意,這是晶圓級開發的行業里程碑。”


"

芯頻道8月20日消息,美國獨角獸創業公司Cerebras推出了史上最大尺寸的AI芯片,略大於標準iPad,號稱“晶圓級引擎”(Cerebras Wafer Scale Engine,簡稱WSE)。該公司表示,單個芯片可以驅動複雜的人工智能(AI)系統,從無人駕駛汽車到監控軟件。


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米

Wafer-Scale Engine和目前最大的AI芯片之一的並排比較


Cerebras的芯片尺寸是Nvidia領先芯片尺寸的五十七倍,“V100”佔據了當今人工智能的主導地位。擁有比芯片更多的存儲器電路:18千兆字節,是Nvidia部件的3000倍。WSE將邏輯運算、通訊和存儲器集成到單個硅片上,是一種專門用於深度學習的芯片。它創下了4項世界紀錄:

晶體管數量最多的運算芯片:2萬億個晶體管

芯片面積最大:46,225 mm2的硅

片上緩存最大:18 GB超快速片上存儲器(SRAM)

運算核心最多:400,000個AI可編程內核


此外,該芯片還將擁有100 Petabits / s結構帶寬、稀疏性的原生優化(避免乘以零),以及軟件與標準AI框架(如TensorFlow和PyTorch)的兼容性。

據芯頻道獲悉,WSE由臺積電代工,但是並沒有使用當前最先進的7nm工藝,而是使用相對較老的16nm製程工藝製造的300毫米晶圓切割而成。臺積電運營高級副總裁JK Wang表示:“我們對與Cerebras合作製造WSE非常滿意,這是晶圓級開發的行業里程碑。”


史上最大AI芯片問世,臺積電16nm工藝製造:4.6萬平方毫米

Cerebras與臺積電合作開發互連,製造和測試晶圓級引擎所需的技術


雖然WSE製造成本可能很高,但Cerebras認為片上互連比構建和連接獨立的內核速度更快、成本更低。

50歲的安德魯·費爾德曼(Andrew Feldman)是創業公司Cerebras Systems的首席執行官,雙手握住它們,在它們之間支撐著一塊大尺寸鼠標墊的閃亮厚板,一塊精緻的互連線條蝕刻在硅片上,在暗淡的熒光燈下閃爍著深沉的琥珀色。它的每一面都是8.5英寸,是世界上有史以來最大的計算機芯片。有了這樣的芯片,Feldman預計人工智能將被向前大步跨越,因為它們提供了谷歌和其他人建立前所未有規模的神經網絡所需的並行處理速度。

四十萬臺被稱為“核心”的小型計算機覆蓋了芯片的表面。通常,它們將被切割成單獨的芯片以從圓形硅晶片產生多個成品部件。在Cerebras的案例中,整個晶圓用於製造多芯片計算機,即平板上的超級計算機。

通過構建一個非常大的芯片,Cerebras相信它可以在其中一個設備上存儲和處理整個神經網絡,從而無需跨多個設備和內存層擴展問題(稱為模型並行的過程)。這種方法類似於在一個巨大的芯片上構建一個帶有內存的整個計算機集群,與具有數百個傳統加速器的服務器機架相比,片上存儲器和通信速度比片外存儲器快數千倍,並且將節省大量功率和費用。

這種大膽的設計必須克服重大的技術障礙,包括互連性,內存,功率,產量,封裝和冷卻。該公司的一項突破是用於交叉芯片和芯片內通信的“Swarm-IO”結構網格。這些連接必須穿過光刻中使用的掩模版(掩模)之間的邊界並直接在硅上蝕刻。Feldman先生說,這個解決方案是基於Cerebras擁有的技術,該技術是與臺積電共同開發的,用於製造和測試。

為了應對晶圓上不可避免的缺陷,Cerebras採用冗餘內核和結構鏈路來替換壞電路,並在啟動時重新連接電網。此外,沒有可用的封裝,例如可以安裝,供電和冷卻大型芯片。Cerebras必須發明定製包裝技術和工具來應對這些挑戰。

值得一提的是,該芯片不會單獨銷售,而是將被打包到Cerebras設計的計算機“設備”中。一個原因是需要一個複雜的水冷系統,這是一種灌溉網絡,可以抵消以15千瓦功率運行的芯片產生的極端熱量。

“你不能用設計插入任何舊戴爾服務器的芯片來做到這一點,”費爾德曼說。“如果你製造一輛法拉利發動機,那麼你想建立整個法拉利,”這是他的理念。他估計他的計算機將是具有多個Nvidia芯片的服務器的150倍,功耗只是服務器機架所需物理空間的一小部分。因此,他預測,在雲計算設施中運行成本高達數萬美元的人工智能培訓任務可能會降低一個數量級的成本。

Cerebras尚未披露更多性能數據,但Feldman承諾,一旦第一批系統在9月份發佈給客戶,它將會出現。Feldman斷言,有些人已經收到原型並且結果具有競爭力,儘管他還沒有透露客戶名稱。“我們將培訓時間從幾個月縮短到幾分鐘,”他說。“我們看到的改善並不是一點點好,而是很多。”

"

相關推薦

推薦中...