法國人工智能公司Mistral近日正式發布Mistral 3系列大模型,這家被視為"歐洲AI希望"的企業以全系列Apache 2.0開源協議開放模型權限,其旗艦模型Mistral Large 3采用混合專家架構(MoE),總參數量達6750億,激活參數410億。該模型在LMArena開源非推理模型榜單中位列第二,綜合排名第六,訓練過程動用了3000張NVIDIA H200顯卡。
與前代產品顯著不同的是,本次官方基準測試直接對標中國開源模型DeepSeek-V3.1和Kimi-K2。第三方人類評估數據顯示,Mistral Large 3在通用任務中分別以53%和55%的勝率領先對手,多語言場景下優勢進一步擴大至57%和60%。這種對比策略的轉變,折射出全球開源AI生態格局的微妙變化——Mistral 2發布時其對比對象還集中在GPT、Claude等海外閉源模型。
在輕量化模型領域,Ministral 3系列推出30億、80億和140億參數的密集型模型,每個尺寸均提供預訓練、指令微調和推理強化三個版本。官方宣稱14B推理版在AIME 2025數學競賽基準測試中取得85%的準確率,8B指令版生成的文本token數量較同類模型減少一個數量級。所有小尺寸模型均支持40余種語言和圖像理解功能,展現出較強的多模態處理能力。
硬件適配方面,Mistral與NVIDIA、vLLM、Red Hat建立深度合作。旗艦模型可部署于Blackwell NVL72超級計算系統,也能在單個配備8塊A100或H100的節點運行;輕量級模型則覆蓋從DGX Spark工作站到RTX消費級顯卡,甚至支持Jetson邊緣計算設備。API服務已登陸主流云平臺,并提供定制化訓練方案。
值得關注的是,這家估值達140億美元的歐洲AI獨角獸,在模型對比策略上的轉向頗具象征意義。當Mistral 3的評測數據不再將海外閉源模型作為主要參照系,而是選擇中國開源方案作為對標對象時,某種程度印證了中國AI技術在特定領域已形成全球影響力。不過業內人士提醒,在復雜推理、長文本處理等維度,開源模型與頭部閉源產品仍存在明顯差距。











