近日,美國加利福尼亞州一項關于人工智能(AI)監管的新法案正式生效,成為具有約束力的法律。這項被編號為SB 53的法案由加州民主黨參議員斯科特?維納主導制定,是其團隊在相關領域推出的第二版草案,旨在通過制度化手段規范大型AI開發企業的運營行為。
根據法案要求,運營規模達到特定標準的大型AI企業需在其官方網站公開技術框架文件,詳細說明如何將國家、國際標準及行業公認的最佳實踐融入其AI系統開發流程。對于安全保障協議的任何更新,企業必須在30個自然日內通過官方渠道發布更新內容及調整依據,確保技術透明度與責任可追溯性。
在監督機制方面,法案創新性地建立了雙向溝通渠道:一方面要求企業設立專門接口接收公眾意見,另一方面強制規定企業需向加州應急服務辦公室及時上報可能影響公共安全的重大AI事故。為保護內部舉報人權益,法案明確禁止企業對揭露安全隱患的員工進行打擊報復,并為其提供法律保護。
該法案在立法過程中引發科技行業激烈討論。支持陣營中,AI安全研究機構Anthropic公開表態認可,認為透明化要求有助于建立行業信任。而meta、OpenAI等頭部企業則曾通過行業組織進行游說,表達對部分條款執行成本的擔憂。這種分歧折射出技術創新與監管平衡之間的深層矛盾,也預示著AI治理將進入更復雜的博弈階段。