近日,又見 AI 毀滅論,而加州 AI 限制法案的“幕后主使”被指與馬斯克有關(guān),這一消息在科技界和社會各界引起了軒然大波。
近兩年,AI 監(jiān)管話題已經(jīng)上升到了氣候變化、核擴(kuò)散的高度。去年 11 月首屆 AI 峰會,與會各國簽署《布萊切利宣言》。但拋開潛在威脅,目前 AI 還是“乖孩子”,與科幻電影“人類終結(jié)者”相去甚遠(yuǎn)。當(dāng)下 AI“闖過最大的禍”當(dāng)屬 Deepfake——國外“AI 換臉馬斯克”騙錢騙感情,國內(nèi)“AI 換臉靳東”騙錢騙感情。
該法案旨在防止 AI 大模型被用于對人類造成“嚴(yán)重傷害”。法案指出,例如恐怖分子用 AI 大模型制造武器,造成大量人員傷亡。不禁讓人想到了前不久 GPT-4o 的“時(shí)態(tài)破防”事故。
法案要求開發(fā)者(即開發(fā) AI 模型的公司)實(shí)施法案所規(guī)定的安全協(xié)議,以防止上述種種后果。下一步,SB-1047 將進(jìn)入加州參議院進(jìn)行最終投票環(huán)節(jié)。如果通過,法案將放到馬斯克“敵蜜”加州州長紐森的辦公桌上,等待其最終的命運(yùn)。硅谷基本是一邊倒:支持者寥寥無幾,反對者成群結(jié)隊(duì)。
而習(xí)慣打“安全牌”的 AI 創(chuàng)企 Anthropic 早已事先呈上了詳細(xì)修改意見,希望法案從“傷害前執(zhí)法”轉(zhuǎn)向“基于結(jié)果的威懾”。法案也采納了其部分建議,比如不再允許加州總檢察長,在災(zāi)難事件發(fā)生前起訴 AI 公司疏忽安全措施。
問題核心在于對 AI 大模型的定義。有一個(gè)很好的比喻:如果一家公司批量生產(chǎn)了非常危險(xiǎn)的汽車,并跳過了所有安全測試,結(jié)果引發(fā)了嚴(yán)重的交通事故。這家公司應(yīng)該受到處罰,甚至面臨刑事指控。但如果這家公司開發(fā)了一個(gè)搜索引擎,恐怖分子搜到“如何造炸彈”,并造成了嚴(yán)重后果。
加州 SB-1047 法案到底是絆腳石還是安全籠?各位大佬的立場為何不同?這一系列問題都值得我們持續(xù)關(guān)注和深入思考。