近日,據科技媒體《連線》披露,特斯拉汽車在檢測到駕駛者出現疲勞跡象時,會通過車載信息娛樂系統彈出提示,建議用戶啟用完全自動駕駛(FSD)功能。這一機制引發安全爭議,多位專家指出,在駕駛者狀態不佳時推薦輔助駕駛功能可能適得其反。
根據車主反饋,系統彈出的提示信息包含兩類場景:當車輛檢測到車道偏離時,屏幕會顯示“檢測到車道偏離,啟用FSD輔助保持專注”;若系統判定駕駛者處于疲勞狀態,提示則變為“檢測到疲勞狀態,啟用FSD保持專注”。這些提示自本月初開始陸續出現在特斯拉車型的信息娛樂系統中。
盡管FSD功能要求駕駛者始終保持注意力集中,但安全專家認為,特斯拉的提示邏輯存在矛盾。美國公路安全保險協會高級研究員亞歷山德拉·穆勒指出:“當系統懷疑駕駛者疲勞時,進一步減少其操作參與度完全違背安全原則。這相當于在駕駛者反應能力下降時,主動削弱其對車輛的控制權。”
技術依賴帶來的“環外表現問題”成為討論焦點。弗吉尼亞理工大學交通研究所工程師查理·克勞爾解釋稱,人類在過度依賴自動化系統后,會逐漸喪失對突發狀況的應對能力。“當技術長期穩定運行時,人類會形成惰性,一旦系統失效,介入反應的速度和準確性都會大幅下降。”他以航空領域為例,指出飛行員因過度依賴自動駕駛系統而忽視手動操作訓練的現象已引發多起事故。
特斯拉此舉面臨多重法律風險。今年8月,該公司因一起舊版Autopilot系統導致的致命事故被判支付3.29億美元賠償。涉事車輛以每小時60英里的速度闖紅燈,撞上正常通行的行人。目前,美國國家公路交通安全管理局正對多起FSD模式下的碰撞事故展開調查,其中一起事故的行車記錄儀顯示,車輛因陽光直射導致傳感器失效,撞倒路邊老年行人。
監管層面已對特斯拉的宣傳方式提出質疑。加利福尼亞州機動車管理局以“虛假宣傳”為由提起訴訟,重點指向FSD功能名稱的誤導性。該機構認為,特斯拉通過名稱暗示功能已實現完全自動駕駛,但實際技術仍需人類監督,這種表述可能誤導消費者過度依賴系統。
安全領域研究者強調,輔助駕駛技術的核心矛盾在于人類與機器的責任劃分。當系統承擔大部分駕駛任務時,人類注意力必然分散,而技術故障的不可預測性又要求駕駛者保持高度警覺。這種矛盾在疲勞駕駛場景下尤為突出——系統既檢測到駕駛者狀態不佳,又通過推薦自動化功能進一步削弱其參與度,形成雙重安全隱患。











