近日,科技媒體TechCrunch報道了一則關于人工智能領域的新動向。在Anthropic于舊金山主辦的首次開發者盛會“Code with Claude”上,該公司的首席執行官達里奧·阿莫代伊分享了一個引人注目的觀點:當前的人工智能模型產生“幻覺”的概率,或許已經低于人類。
所謂“幻覺”,在AI領域特指模型虛構內容并以事實的形式進行呈現。阿莫代伊在會上強調,盡管AI有時會“出錯”,但這些錯誤并不妨礙Anthropic向通用人工智能(AGI)的目標邁進。他提到:“如果我們用特定的標準來衡量,我猜測AI模型的幻覺頻率可能已低于人類,只是它們的錯誤方式往往更為出人意料。”
阿莫代伊一直是業界中對AGI前景最為樂觀的聲音之一。他堅信:“人們總是試圖尋找AI能力的邊界,但至今我們仍未觸及這一極限。”然而,并非所有人都持相同觀點。谷歌DeepMind的首席執行官哈薩比斯就在本周指出,當前的AI模型仍存在大量漏洞,甚至在一些基礎問題上也會給出錯誤的答案。
值得注意的是,在處理復雜的推理任務時,一些新的人工智能模型反而出現了更嚴重的“幻覺”現象。例如,OpenAI的o3和o4-mini版本,其幻覺率相較于之前的推理模型有所上升,這一現象連OpenAI自身也未能完全理解。面對這樣的挑戰,阿莫代伊表示,人類本身也經常犯錯,因此AI的錯誤并不應被視為其“不夠聰明”的標志。但他也承認,當AI以極高的信心輸出錯誤信息時,確實可能引發一系列問題。
在阿莫代伊看來,AI的錯誤與人類的錯誤有著本質的不同。人類的錯誤往往源于認知的局限或信息的不足,而AI的錯誤則更多是由于其算法和訓練數據的局限性所導致。因此,他呼吁業界在追求AI技術進步的同時,也應加強對AI錯誤的理解和應對能力。