阿里云近日宣布,正式推出Qwen3-VL系列模型的緊湊dense版本,為用戶提供4B和8B兩種參數規模的選項。每個參數規模均包含Instruct和Thinking兩種變體,以滿足不同場景下的應用需求。
這款新系列模型在技術上實現了三大突破。首先,通過優化設計,顯存占用顯著降低,使其能夠適配更多類型的硬件環境,為開發者提供了更大的靈活性。其次,盡管參數規模有所縮減,但模型完整保留了Qwen3-VL的全部能力,特別是在多模態任務處理方面,性能表現與原版相比毫不遜色。第三,在STEM、視覺問答、光學字符識別、視頻理解等多個領域,模型均展現出強勁的性能。
在基準測試中,Qwen3-VL的4B和8B版本表現尤為突出。與Gemini 2.5 Flash Lite和GPT-5 Nano等同類模型相比,新版本在STEM & Puzzle、General VQA等多項任務中均取得了更優的成績。部分指標甚至接近六個月前發布的旗艦款Qwen2.5-VL-72B,顯示出其在小參數規模下的高效性能。
為了方便用戶部署,阿里云還提供了FP8版本,進一步提升了模型的運行效率。用戶可以通過Hugging Face和ModelScope平臺獲取相關資源,或通過阿里云ModelStudio平臺調用Qwen3-VL-8B-Instruct和Qwen3-VL-8B-Thinking的API。GitHub上還提供了詳細的實戰指南,幫助用戶快速上手。
從基準測試表格中可以看出,Qwen3-VL 4B/8B版本在多個任務類別中的表現均優于Gemini 2.5 Flash Lite和GPT-5 Nano,部分指標甚至達到了Qwen2.5-VL-72B的水平。這一結果充分證明了新版本模型在小參數規模下的強大能力。
如需了解更多AI領域的最新資訊,可訪問:http://www.aipress.com.cn/











