meta公司近日正式推出MobileLLM-R1系列輕量化語言模型,包含1.4億、3.6億和9.5億參數(shù)三種規(guī)格,專為移動(dòng)端設(shè)備優(yōu)化設(shè)計(jì)。該系列模型突破性地實(shí)現(xiàn)在智能手機(jī)等終端設(shè)備上直接運(yùn)行,無需依賴云端計(jì)算資源。
與常規(guī)語言模型不同,MobileLLM-R1系列經(jīng)過專項(xiàng)監(jiān)督微調(diào)訓(xùn)練,聚焦數(shù)學(xué)運(yùn)算、編程開發(fā)(涵蓋Python/C++等語言)及科學(xué)問題求解三大領(lǐng)域。以參數(shù)規(guī)模最大的950M版本為例,其預(yù)訓(xùn)練階段僅使用約2TB高質(zhì)量數(shù)據(jù),整體訓(xùn)練數(shù)據(jù)量不足5TB。盡管數(shù)據(jù)規(guī)模顯著低于行業(yè)常規(guī),該模型在MATH、GSM8K等數(shù)學(xué)基準(zhǔn)測試中,性能表現(xiàn)超越采用36TB數(shù)據(jù)訓(xùn)練的Qwen 3-0.6B模型。
在編程能力評估方面,MobileLLM-R1 950M展現(xiàn)出顯著優(yōu)勢。與同為開源模型的Olmo 1.24B和SmolLM 1.7B對比,其在LiveCodeBench編程測試中的表現(xiàn)全面領(lǐng)先。特別是在數(shù)學(xué)能力測試中,950M版本的準(zhǔn)確率達(dá)到Olmo 1.24B的5倍,是SmolLM 1.7B的2倍。
技術(shù)實(shí)現(xiàn)層面,開發(fā)者可通過vLLM推理引擎部署該系列模型,僅需在ModelRegistry中注冊Llama4ForCausalLM架構(gòu)即可完成配置。目前MobileLLM-R1全系列已采用Apache 2.0開源協(xié)議,完整模型權(quán)重及訓(xùn)練代碼均已上傳至Hugging Face平臺,供全球開發(fā)者自由使用。










