美國AI芯片領域迎來一則重磅消息:AI芯片獨角獸企業Cerebras Systems宣布完成11億美元G輪融資,此次融資獲得超額認購,投后估值高達81億美元。這筆資金將被用于擴展前沿技術組合,在AI芯片設計、封裝、系統設計以及AI超級計算機領域持續創新,同時擴大美國本土的制造能力和數據中心容量,以應對市場對其產品和服務快速增長的需求。
Cerebras Systems成立于2016年,自詡為“業界速度最快的AI基礎設施制造商”和“全球最快的推理提供商”。其核心產品晶圓級引擎3(WSE-3)堪稱全球最大的AI芯片,采用5nm制程工藝,面積達46225平方毫米,集成4萬億顆晶體管,通過90萬個AI優化核心提供125PFLOPS的AI算力。與英偉達B200相比,其晶體管數量是后者的19倍,AI算力更是達到28倍。
在內存性能方面,WSE-3同樣表現卓越。它配備44GB片上SRAM,內存帶寬高達21PB/s,徹底消除了傳統架構的內存瓶頸。其晶圓級結構提供每秒27PB/s的內部帶寬,是新一代NVLink帶寬的206倍。這種設計使得晶圓級引擎可相互連接,擴展至2048個系統,總AI算力達256EFLOPS。通過權重流編程模型,AI開發者能夠訓練擁有24萬億個參數的模型,無需面對多GPU編排和并行化策略的復雜挑戰。
自2024年底推出推理服務以來,Cerebras的發展勢頭迅猛。其運行開源和閉源模型的速度通常比英偉達GPU快20倍以上。第三方獨立基準測試公司Artificial Analysis的測試結果顯示,在正面比較中,Cerebras在每個領先的開源模型上的表現均比英偉達GPU高出幾個數量級。該公司CEO Micah Hill-Smith表示:“自成立以來,我們已經在數百種模型中測試了每個AI推理提供商。Cerebras始終是最快的。”
目前,Cerebras每月在其自有云平臺、客戶本地以及合作伙伴平臺上提供數萬億個token的服務。2025年,其客戶群體進一步擴大,涵蓋AWS、meta、IBM、Mistral、Cognition、AlphaSense、Notion等數百家AI企業,同時吸引了許多個人開發者。在全球最大的AI開源平臺Hugging Face上,Cerebras已成為排名第一的推理提供商,每月處理超過500萬個請求。