全球云服務領域迎來重大突破——阿卡邁技術公司(Akamai)與英偉達(NVIDIA)聯合打造的邊緣AI計算平臺Akamai Inference Cloud正式面世。該平臺通過將AI推理能力從傳統數據中心延伸至全球邊緣節點,為實時智能應用提供了革命性基礎設施,標志著分布式AI計算進入新階段。
基于Akamai覆蓋140個國家的4200多個邊緣節點網絡,新平臺將英偉達Blackwell架構的AI算力直接部署在用戶附近。這種設計突破了傳統云計算的地理限制,使智能體AI能夠在本地完成環境感知與決策,將響應延遲壓縮至毫秒級。平臺核心組件包括搭載NVIDIA RTX PRO 6000 Blackwell GPU的專用服務器、BlueField-3數據處理器及AI Enterprise軟件棧,形成從核心到邊緣的完整加速計算體系。
在應用場景層面,該平臺特別針對生成式AI的三大核心需求進行優化:其一,通過本地化推理降低交互延遲,滿足實時對話、個性化推薦等場景的即時性要求;其二,利用邊緣節點的地理分布特性,實現智能路由的動態優化;其三,支持全球范圍內的彈性擴展,使智能體能夠根據用戶密度自動調整算力分配。這種架構使AI應用既保持云端訓練的強大能力,又獲得終端設備的響應速度。
技術實現上,Akamai Inference Cloud采用分層部署策略。在靠近用戶的邊緣節點運行輕量化推理模型,中心數據中心則負責復雜模型的持續訓練與更新。這種"訓練在云、推理在邊"的模式,通過NVIDIA最新發布的BlueField-4 DPU實現數據傳輸與安全防護的雙重加速,確保全球范圍內AI工作負載的高效流轉。
Akamai首席執行官Tom Leighton強調:"互聯網的擴展本質就是靠近用戶,AI發展同樣遵循這個規律。我們二十年構建的邊緣網絡,現在成為承載下一代智能應用的關鍵基礎設施。"據技術白皮書披露,該平臺可使AI推理的端到端延遲降低60%,同時通過分布式架構將算力利用率提升至傳統模式的3倍。
英偉達創始人黃仁勛從計算架構角度解讀合作價值:"當推理成為AI計算的核心,就必須突破數據中心的物理邊界。與Akamai的合作將英偉達的加速計算能力轉化為全球可用的實時服務,這為自動駕駛、遠程醫療等對延遲敏感的應用開辟了新可能。"目前雙方已啟動全球節點部署計劃,預計2025年前完成主要市場的覆蓋。





