近期,麻省理工學(xué)院(MIT)的一項研究揭示了人工智能(AI)在處理否定詞,如“no”和“not”時存在的顯著短板,這一發(fā)現(xiàn)對醫(yī)療等關(guān)鍵領(lǐng)域的安全應(yīng)用敲響了警鐘。
盡管AI技術(shù)日新月異,已能在診斷疾病、創(chuàng)作藝術(shù)和自動駕駛等多個領(lǐng)域展現(xiàn)卓越能力,但在面對否定表達(dá)時,卻顯得力不從心。MIT的研究團隊,攜手OpenAI與牛津大學(xué),在博士生Kumail Alhamoud的帶領(lǐng)下,深入分析了當(dāng)前主流AI模型,如ChatGPT、Gemini和Llama,在處理否定語句時的表現(xiàn)。他們發(fā)現(xiàn),這些模型往往傾向于忽視否定語義,而默認(rèn)進行肯定關(guān)聯(lián)。
研究報告特別指出,醫(yī)療領(lǐng)域是這一缺陷可能帶來嚴(yán)重后果的典型場景。例如,AI可能會將“無骨折”(no fracture)或“未擴大”(not enlarged)等否定診斷誤解為肯定,從而引發(fā)誤診或治療不當(dāng)。
問題的根源不在于數(shù)據(jù)量的不足,而在于AI的訓(xùn)練機制。斯坦福大學(xué)的深度學(xué)習(xí)兼職教授Kian Katanforoosh指出,大多數(shù)語言模型依賴模式預(yù)測,而非邏輯推理。這導(dǎo)致AI在面對如“不好”(not good)這樣的否定表達(dá)時,仍可能因“good”一詞的存在而誤判為正面情緒。專家們強調(diào),如果AI模型不具備邏輯推理能力,這類微妙卻致命的錯誤將持續(xù)存在。
Lagrange Labs的首席研究工程師Franklin Delehelle也表達(dá)了類似的觀點。他指出,AI擅長模仿訓(xùn)練數(shù)據(jù)中的模式,但缺乏處理新情境或創(chuàng)新的能力。這限制了AI在面對否定表達(dá)時的準(zhǔn)確性和靈活性。
為了改進AI在處理否定語句方面的表現(xiàn),研究團隊嘗試使用合成否定數(shù)據(jù)(synthetic negation data)進行模型訓(xùn)練,并取得了一定的初步成效。然而,要準(zhǔn)確捕捉和處理否定語句中的細(xì)微差異,仍然是一個巨大的挑戰(zhàn)。
Katanforoosh警告說,AI對否定的誤解不僅是一個技術(shù)問題,更可能引發(fā)法律、醫(yī)療和人力資源等領(lǐng)域的重大錯誤。他呼吁,解決這一問題的關(guān)鍵在于結(jié)合統(tǒng)計學(xué)習(xí)與結(jié)構(gòu)化思維,提升AI模型的邏輯能力,而不僅僅是簡單地堆砌更多數(shù)據(jù)。
研究團隊還強調(diào)了跨學(xué)科合作的重要性。通過聯(lián)合計算機科學(xué)、語言學(xué)和醫(yī)學(xué)等領(lǐng)域的專家,可以更全面地理解AI在處理否定語句時面臨的挑戰(zhàn),并共同尋找有效的解決方案。
隨著AI技術(shù)的不斷發(fā)展和普及,其在醫(yī)療等關(guān)鍵領(lǐng)域的應(yīng)用將越來越廣泛。因此,解決AI在處理否定語句方面的缺陷,對于確保AI技術(shù)的安全、有效應(yīng)用具有重要意義。
未來,研究團隊將繼續(xù)探索和改進AI模型在處理否定語句方面的表現(xiàn),以期推動AI技術(shù)的進一步發(fā)展和應(yīng)用。