安謀科技近日正式推出面向端側(cè)大模型優(yōu)化的新一代NPU IP“周易”X3,該產(chǎn)品通過與Arm架構(gòu)CPU、GPU協(xié)同工作,構(gòu)建起基于Arm生態(tài)的異構(gòu)計算解決方案。此次發(fā)布的芯片架構(gòu)在模型兼容性、硬件性能、軟件生態(tài)等維度實現(xiàn)突破,標(biāo)志著端側(cè)AI算力進(jìn)入系統(tǒng)性優(yōu)化階段。
硬件架構(gòu)層面,“周易”X3采用DSP+DSA混合計算架構(gòu),支持從定點到浮點的計算模式轉(zhuǎn)換。單Cluster算力覆蓋8-80TFLOPS(FP8精度),單核帶寬最高達(dá)256GB/s。其專屬AI硬件引擎AIFF配合硬化調(diào)度器,可將CPU負(fù)載降低至0.5%,同時實現(xiàn)微秒級調(diào)度延遲。該架構(gòu)突破傳統(tǒng)CNN限制,原生支持Transformer等主流大模型架構(gòu),算子庫擴(kuò)展至160余個,兼容超過270種模型類型。
軟件生態(tài)建設(shè)方面,配套的Compass AI平臺構(gòu)建起全棧工具鏈,已實現(xiàn)對TensorFlow、PyTorch等主流框架的無縫銜接。平臺特別強(qiáng)化了大模型動態(tài)Shape處理能力,集成GPTQ量化方案和Hugging Face模型庫,支持LLM、VLM等復(fù)雜模型部署。在性能實測中,CNN模型處理效率較前代提升30-50%,AIGC大模型算力利用率在特定場景下突破100%,多核擴(kuò)展線性度達(dá)到70-80%。
現(xiàn)場演示環(huán)節(jié)展示了多個端側(cè)AI落地場景:搭載“周易”X3的AI PC設(shè)備可本地運(yùn)行MinicpM v2.6視覺模型,實現(xiàn)毫秒級圖像識別;在文生圖測試中,Stable Diffusion v1.5模型生成圖像清晰度顯著提升,創(chuàng)作周期縮短至秒級;文本生成任務(wù)中,DeepSeek-R1模型在tokens生成速度和對話流暢度方面均有突破。這些應(yīng)用驗證了新架構(gòu)在保持低功耗的同時,能效比達(dá)到行業(yè)領(lǐng)先水平。
作為國內(nèi)最早布局NPU研發(fā)的團(tuán)隊之一,安謀科技自2018年組建專項組以來,已連續(xù)交付五代產(chǎn)品。公司產(chǎn)品研發(fā)負(fù)責(zé)人強(qiáng)調(diào),當(dāng)前端側(cè)AI發(fā)展已從單純追求算力轉(zhuǎn)向系統(tǒng)優(yōu)化,需要構(gòu)建涵蓋芯片設(shè)計、算法優(yōu)化、生態(tài)支持的完整解決方案。此次發(fā)布的“周易”X3標(biāo)志著安謀科技在AI戰(zhàn)略上邁出關(guān)鍵一步,其技術(shù)成果已應(yīng)用于智能座艙、ADAS、機(jī)器人等十余個領(lǐng)域,形成覆蓋移動終端、智能物聯(lián)、汽車電子的完整產(chǎn)品矩陣。











