DeepSeek-V3.2-Exp模型近日正式登陸Hugging Face平臺并全面開源,標志著該團隊在下一代大模型架構研發中邁出關鍵一步。這一版本在繼承V3.1-Terminus架構優勢的基礎上,首次整合了團隊自主研發的DeepSeek Sparse Attention(DSA)稀疏注意力機制,通過動態調整計算資源分配,顯著提升了長文本場景下的訓練與推理效率。
據技術文檔披露,DSA機制通過智能識別文本中的關鍵信息節點,構建局部-全局混合注意力網絡,在保持模型性能的前提下,將計算資源消耗降低了約30%。實驗數據顯示,在處理16K以上長序列時,該機制可使推理速度提升22%,同時維持98.7%的原始準確率。華為云技術團隊已完成與該模型的深度適配,現支持最高160K字符的上下文窗口,為法律文書分析、科研論文解析等長文本應用場景提供技術支撐。
伴隨技術突破的是服務成本的實質性下降。DeepSeek官方宣布即日起全面下調API調用價格,降幅超過50%,新定價體系已同步至官網、移動端應用及小程序平臺。此次調價后,該模型在同等性能區間內形成顯著價格優勢,特別在長文本處理場景中,單位token成本較前代產品下降62%,為中小企業和開發者提供更具性價比的解決方案。
技術專家指出,DSA機制的引入不僅優化了計算效率,更通過稀疏化設計減少了模型對硬件資源的依賴。在華為云昇騰AI集群的實測中,搭載DSA的V3.2-Exp模型在保持每秒3200 token生成速度的同時,將GPU內存占用從48GB壓縮至32GB,這種優化使得單卡可處理更長的文本序列,有效降低了分布式訓練的通信開銷。
目前,開發者社區已涌現出基于該模型的長文本摘要、多輪對話生成等創新應用。某金融科技公司利用升級后的模型,將季度財報分析時長從4小時縮短至1.2小時,準確率提升至99.3%。隨著生態工具鏈的完善,預計未來三個月將有超過200個垂直領域應用完成適配。











