國內腦機接口領域迎來重要突破——頭部科技企業姬械機(Maschine Robot)正式發布通用型腦機接口AI計算平臺Mind++。該平臺通過標準化算法服務,為醫療、教育、工業等多領域腦機應用提供技術支撐,旨在打通實驗室原型到規模化落地的關鍵環節。
此前,姬械機已構建起覆蓋軟硬件的完整技術生態:在算法層面,推出腦機夢境生成大模型Dreamer、情感識別算法Lover、音樂交互模型Musician等垂直領域解決方案;在硬件方面,形成1-16通道的X-BCI系列穿戴設備與可嵌入式的U-BCI單元模塊;數據層面則啟動Mind大規模腦機數據集項目,涵蓋運動控制、認知狀態等多維度交互任務。
針對行業長期存在的三大痛點——訓練數據稀缺性、算法模型成熟度不足、跨設備泛化能力薄弱,Mind++平臺構建了雙重技術基座:其一,依托MIND腦機交互數據集與Action運動操作數據集形成的海量標準化數據池;其二,采用自監督學習、遷移學習等先進架構,結合XGBoost、卷積神經網絡(CNN)、圖神經網絡(GNN)等經典與前沿算法,訓練出具備強魯棒性的腦電解碼模型。這些模型特別針對腦電信號的低信噪比、高時序性特征進行優化,顯著提升跨場景適應能力。
平臺核心算法體系包含五大類模型:通用基礎模型通過Brain-MAE等Transformer架構實現無標簽數據預訓練,開發者僅需少量數據微調即可適配特定任務;狀態監測模型可實時評估疲勞度、注意力、情緒狀態及睡眠階段;交互控制模型支持運動想象解碼、意念控制等主動意圖識別;神經反饋模型建立腦活動與外部刺激的閉環調控;精神健康模型則用于昏迷等級、睡眠障礙等神經指標監測。
為推動技術普惠,Mind++將同步開放開發者生態:開源EEGNet、FBCSP-LDA等基線算法代碼庫,提供數據預處理工具鏈(含濾波、偽跡去除等功能模塊),并配套API/SDK開發文檔、Jupyter Notebook實戰教程及情緒反饋系統等場景化開發指南。這些資源將降低腦機應用開發門檻,加速技術從實驗室到真實場景的轉化進程。
據悉,該平臺未來將面向全球科研機構與企業提供標準化接口(API)與預訓練模型庫,通過"開放共享、協同演進"的MIND生態理念,持續推動腦機接口技術的迭代創新與應用落地。











