佛羅里達州的檢察官已對人工智慧公司 OpenAI 展開刑事調查,以釐清其聊天機器人 ChatGPT 是否曾協助去年在佛羅里達州立大學發生的校園大規模槍擊案的嫌犯。目前公司尚未面臨任何指控,也未被指控犯罪,但此調查已將焦點放在 AI 公司面臨的一大挑戰:為何開發出能遵守人類法律、道德和價值觀的聊天機器人如此困難?

佛羅里達州法律規定,協助他人犯罪者,亦可對該罪行負起責任。該州總檢察長 James Uthmeier 在向媒體發表的聲明中表示,如果聊天機器人是個人,那麼它將面臨謀殺罪的指控。

過去幾年來,人們對大型語言模型(LLM)聊天機器人提供危險或非法建議的擔憂日益增加,例如它們曾鼓勵人們自殺、生成非法色情內容以及進行金融詐騙。

根據澳洲雪梨麥覺理大學 LLM 對齊研究員 Usman Naseem 的說法,無論佛羅里達州的調查是否會對總部位於加州舊金山的 OpenAI 產生法律後果,這都將增加公司證明其安全措施有效性的壓力。同時,將人類價值觀編碼到 AI 模型中以使其有用且安全的「對齊」研究,也在試圖尋找其他解決方案。

OpenAI 並未回應《Nature》雜誌對此調查的置評請求,但該 AI 公司的一位發言人告訴 BBC,公司已與當局合作,並表示「ChatGPT 對這起可怕的罪行不負責」。

Naseem 指出,目前 AI 聊天機器人的安全標準由公司自行設定,外部監督有限。許多公司已承認存在問題,並表示已採取安全措施,防止聊天機器人提供可能導致危險行為的建議。但一些研究人員呼籲進行獨立的安全測試。

其中一項已採取的安全措施是內容過濾器,這意味著 AI 工具會拒絕回應包含特定詞彙的請求。然而,雪梨新南威爾斯大學的 AI 研究員 Toby Walsh 表示,使用者有許多方法可以繞過這些限制。例如,透過以假設或虛構的語境撰寫請求,可以規避具有傷害意圖的提示。Walsh 補充說,這使得 AI 工具難以區分有問題的請求和良性的請求。

但 Naseem 表示,包括內容過濾器、行為訓練和政策規則在內的許多安全措施,都是疊加在系統之上的外部控制,而非系統真正理解道德或意圖。「這些安全措施有幫助,但並不完美,決心堅定的使用者仍然可以找到繞過它們的方法。」他補充道。

問題的一部分在於最受歡迎的 LLM 的學習方式——透過範例而非遵循一套規則。LLM 在網路上龐大的文本儲存庫上進行訓練。當使用者提出問題或「提示」時,LLM 會預測最有可能的詞語序列。

這種設計意味著它們能夠回應各種各樣的提示。Walsh 形容它們是「萬事通」,但這也使得在它們不該說什麼方面設置護欄變得具有挑戰性。

Naseem 表示,LLM 的回答是模式補全。「它們並不真正理解意義或後果。」

Walsh 說,研究人員過去曾試圖教導 AI 系統遵循規則。一種被稱為符號 AI 的較舊類型 AI 在 1950 年代和 1960 年代很受歡迎,它涉及教導電腦遵循規則。但澳洲阿德萊德大學的 AI 研究員 Simon Lucey 表示,這些系統無法處理大規模的現實世界問題,因為開發人員無法編寫足夠的規則來涵蓋所有情況。

Walsh 說,一種調整現有 LLM 以使其更安全的方法是透過人類回饋進行強化學習。在此範例中,人類會測試 LLM 的輸出,並幫助它為提示編寫更理想的回應。但他補充說,這種學習類型資源密集且成本高昂。

另一種確保安全的方法是從用於訓練 AI 模型初始數據集中移除有害資訊,但研究表明這並不總是成功的。Walsh 表示,手動篩選龐大的數據集對科技公司來說成本也非常高昂。

Walsh 說,安全性和實用性之間存在權衡。「如果你將系統鎖定得太嚴格,它們就會失去實用性。」

Naseem 表示,AI 對齊研究人員正從僅標記個別問題的簡單內容偵測器,轉向能夠更好地偵測整個對話中傷害性意圖的系統。

Lucey 表示,研究人員也在致力於建構神經符號 AI,它結合了符號 AI 和神經網路方法。這類模型在電腦程式設計和數學領域表現良好,在這些領域,LLM 在輸出無效時會立即收到回饋並用以改進模型。

然而,Lucey 指出,在倫理和法律領域,這種即時回饋並不可行,因為它太慢且存在潛在的傷害風險。

Lucey 還提到,公司正在投資於策劃更多數據以改進其系統,並聘請更多人提供更好的回饋。但他認為,研究人員需要重新思考基本演算法,以建構能夠合理理解倫理和法律的 AI 系統。

OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律OpenAI 遭刑事調查,探討聊天機器人為何難以遵守法律