特斯拉AI軟件副總裁阿肖克·埃盧斯瓦米(Ashok Elluswamy)在國際計算機視覺大會上,以代表身份向外界披露了該公司在自動駕駛領域的技術突破。作為直接向馬斯克匯報的核心成員,這位2024年晉升的AI業務負責人,曾深度參與特斯拉自動駕駛系統的早期研發工作,此次分享的內容引發了行業對技術路線的新思考。
特斯拉的技術團隊正在顛覆傳統自動駕駛的開發模式。傳統方案通常將感知、預測、規劃三個環節拆分為獨立模塊,各模塊通過預設接口傳遞數據,但特斯拉認為這種"模塊化"路徑存在接口復雜、優化困難等弊端。取而代之的是"端到端"神經網絡架構,該系統直接接收攝像頭像素輸入,同步輸出轉向與加速指令,實現從環境感知到決策控制的全鏈路優化。
在處理現實駕駛中的倫理困境時,端到端模型展現出獨特優勢。當車輛面臨"繞過積水還是借道逆行"這類微型電車難題時,傳統規則系統難以編碼所有可能性。而特斯拉的解決方案是通過海量真實駕駛數據訓練,使AI系統在無明確規則的情況下,自然形成符合人類價值觀的決策模式。這種隱式學習機制,讓車輛能像人類駕駛員一樣權衡利弊。
系統對環境意圖的理解能力達到新高度。在區分"過馬路雞群"與"路邊休憩鵝群"的場景中,端到端模型通過潛在空間分析,準確判斷不同群體的運動趨勢。這種對動態意圖的捕捉能力,在模塊化系統中因數據傳遞損耗而難以實現,卻成為特斯拉技術的核心差異點。
支撐這套系統的是前所未有的數據規模。特斯拉車隊每日產生的駕駛數據,相當于人類500年的駕駛時長。面對每秒20億個傳感器輸入(涵蓋攝像頭、地圖、音頻等),系統通過智能篩選機制提取關鍵信息,最終壓縮為轉向與加速兩個核心指令。這種數據處理能力,使系統在雨天路滑場景中,能提前5秒預判前車失控的二次反彈風險,展現出傳統方案難以企及的預測精度。
為破解端到端模型的黑箱問題,研發團隊開發了兩項創新工具。其一是基于生成式高斯潑濺技術的視覺重建系統,可在220毫秒內生成動態3D環境模型,讓工程師直觀觀察AI的感知結果;其二是嵌入FSD v14.x版本的小型語言推理模型,該模型能用自然語言解釋決策邏輯,例如說明"為何在此處減速"。
真實場景評估成為技術落地的最后關卡。特斯拉構建的神經世界模擬器能實時生成極端事故場景,對系統進行7×24小時的壓力測試。這個具備AI屬性的虛擬世界,不僅能復現歷史數據,更能創造傳統測試難以覆蓋的邊緣案例。通過這種"超現實駕駛游戲",系統在虛擬環境中完成數百萬次迭代升級。
技術通用性驗證取得突破性進展。模擬器生成的畫面顯示,擎天柱人形機器人已在虛擬工廠環境中完成自主導航測試。這證明特斯拉的自動駕駛技術棧可無縫遷移至機器人領域,為解決現實世界的通用人工智能問題奠定了基礎。從汽車到人形機器人,端到端架構正在開辟一條技術復用的新路徑。











