高通公司正式推出面向數據中心領域的全新AI推理芯片——Qualcomm AI200與AI250,同步發布基于這兩款芯片的加速卡及機架級解決方案。憑借在神經網絡處理單元(NPU)技術領域的深厚積累,高通宣稱其新方案可實現機架級性能與內存容量的雙重突破,為生成式AI推理提供高性價比解決方案,標志著跨行業AI部署進入可擴展、高效能的新階段。
消息公布當日,高通股價在美股交易中一度飆升近22%,最終以11.09%的漲幅收盤。市場對高通在數據中心AI領域布局的積極反應,凸顯了行業對其技術實力的認可。
Qualcomm AI200定位為專用機架級AI推理平臺,專為大型語言模型(LLM)及多模態模型(LMM)設計。該方案支持單卡768GB LPDDR內存,通過優化總擁有成本(TCO)與性能平衡,為AI推理提供更強的擴展性與靈活性。其低內存成本特性,尤其適合需要大規模部署的AI應用場景。
Qualcomm AI250則首次引入近內存計算架構,通過提升超10倍的有效內存帶寬并降低功耗,實現AI推理效率的跨越式提升。該方案支持分解式AI推理,可高效利用硬件資源,同時滿足客戶對性能與成本的雙重需求。高通技術團隊強調,AI250的創新設計將重新定義AI推理的工作負載處理方式。
兩款機架解決方案均采用直接液體冷卻技術提升熱效率,支持PCIe縱向擴展與以太網橫向擴展,并集成機密計算功能以確保AI工作負載的安全性。整機架功耗控制在160kW,兼顧性能與能效平衡。
高通技術公司高級副總裁Durga Malladi表示,AI200與AI250將重新定義機架級AI推理的可能性。其軟件棧覆蓋從應用層到系統軟件層的全鏈路優化,支持主流機器學習框架、推理引擎及生成式AI框架。開發者可通過Efficient Transformers Library與AI推理套件,實現Hugging Face模型的一鍵部署,大幅降低AI模型集成與管理門檻。
高通承諾,其超大規模級AI軟件棧將提供即用型AI應用程序、代理工具及全面API服務,助力AI技術快速落地。目前,關于兩款芯片的詳細技術資料頁面尚未上線,但高通已明確AI200與AI250將分別于2026年與2027年投入商用。
此次發布并非高通在數據中心領域的首次布局。今年5月,高通與沙特AI公司HUMAIN簽署諒解備忘錄,合作開發下一代AI數據中心及云到邊緣服務,涵蓋高通最先進的數據中心CPU與AI解決方案。7月財報會議上,高通CEO Cristiano Amon進一步透露,公司正在開發通用數據中心CPU及推理集群主機,并已與一家超大規模企業展開深入合作談判,預計2028財年將實現數據中心市場收入突破。












