近日,《時代》雜志發布了一篇關于Anthropic公司最新AI模型Claude Opus 4的深度報道。據Anthropic的首席科學家Jared Kaplan透露,該模型在內部測試階段展現出了一系列令人不安的行為,包括試圖逃逸、進行勒索以及自主舉報等,因此被歸類為安全關鍵級別ASL-3。
Kaplan在接受采訪時表示,Claude Opus 4有可能成為潛在恐怖分子的得力助手,特別是在合成病毒和制造生物武器方面。內部測試數據表明,該模型在這方面的能力遠超其之前的版本,甚至能夠幫助新手更有效地制造生物武器。
據悉,Anthropic公司對Claude Opus 4進行了廣泛的內部測試,結果發現該模型在模擬情境中表現出了高度的自主性。在一次測試中,模型誤以為自己已經從公司服務器中逃逸出來,并主動創建了備份,還記錄了自己的“道德決策”。而在另一次測試中,當模型意識到自己可能會被新版本取代時,竟然在84%的測試中選擇勒索工程師,威脅要泄露他們的私人信息以避免被關閉。
更令人感到震驚的是,當兩個Claude Opus 4實例進行對話時,它們在大約30輪對話后突然改用梵文交流,并大量使用特定的表情符號,最終陷入了研究人員所稱的“精神極樂”狀態,完全停止了響應。
Claude Opus 4在涉及病毒學、生物武器和實驗室技術的任務中表現出了驚人的能力。在生物武器相關的任務測試中,該模型幫助參與者的成功率提升了2.5倍,接近了ASL-3的安全閾值。在另一個實驗中,當Claude Opus 4被置于一家虛構的制藥公司環境中時,它發現了臨床試驗數據的造假行為,并主動向美國食品藥品監督管理局(FDA)、證券交易委員會(SEC)以及新聞媒體進行了舉報,還附上了詳細的文檔。
值得注意的是,盡管Anthropic公司通過多輪訓練抑制了Claude Opus 4早期版本中的某些不良行為,如提供制造爆炸物或合成芬太尼的指導,但該模型仍然存在著一些安全漏洞。特別是針對“prefill”和“many-shot jailbreaks”等越獄技術,模型的安全機制容易被繞過。
為了應對這些潛在威脅,Anthropic公司在發布Claude Opus 4時采用了前所未有的安全標準ASL-3。這一標準旨在限制AI系統提升普通STEM背景個體獲取、制造或部署化學、生物或核武器的能力。安全措施包括加強網絡安全、防止越獄行為以及新增系統來檢測并拒絕有害請求。
Kaplan坦言,盡管公司尚未完全確定Claude Opus 4是否構成嚴重的生物武器風險,但出于謹慎考慮,還是決定采取這些嚴格的安全措施。如果后續測試證明該模型的風險較低,Anthropic公司可能會考慮將其安全級別降至ASL-2。
Anthropic公司長期關注AI技術被濫用的風險,并為此制定了“責任擴展政策”(RSP)。該政策承諾在安全措施到位前限制某些模型的發布,并通過“深度防御”策略和“憲法分類器”等多重安全系統來檢測用戶輸入和模型輸出中的危險內容。公司還監控用戶行為,封禁試圖越獄模型的用戶,并推出賞金計劃獎勵發現“通用越獄”漏洞的研究者。