近期,麻省理工學院(MIT)的一項研究揭示了人工智能(AI)在處理否定詞,如“no”和“not”時存在的顯著短板,這一發現對醫療等關鍵領域的安全應用敲響了警鐘。
盡管AI技術日新月異,已能在診斷疾病、創作藝術和自動駕駛等多個領域展現卓越能力,但在面對否定表達時,卻顯得力不從心。MIT的研究團隊,攜手OpenAI與牛津大學,在博士生Kumail Alhamoud的帶領下,深入分析了當前主流AI模型,如ChatGPT、Gemini和Llama,在處理否定語句時的表現。他們發現,這些模型往往傾向于忽視否定語義,而默認進行肯定關聯。
研究報告特別指出,醫療領域是這一缺陷可能帶來嚴重后果的典型場景。例如,AI可能會將“無骨折”(no fracture)或“未擴大”(not enlarged)等否定診斷誤解為肯定,從而引發誤診或治療不當。
問題的根源不在于數據量的不足,而在于AI的訓練機制。斯坦福大學的深度學習兼職教授Kian Katanforoosh指出,大多數語言模型依賴模式預測,而非邏輯推理。這導致AI在面對如“不好”(not good)這樣的否定表達時,仍可能因“good”一詞的存在而誤判為正面情緒。專家們強調,如果AI模型不具備邏輯推理能力,這類微妙卻致命的錯誤將持續存在。
Lagrange Labs的首席研究工程師Franklin Delehelle也表達了類似的觀點。他指出,AI擅長模仿訓練數據中的模式,但缺乏處理新情境或創新的能力。這限制了AI在面對否定表達時的準確性和靈活性。
為了改進AI在處理否定語句方面的表現,研究團隊嘗試使用合成否定數據(synthetic negation data)進行模型訓練,并取得了一定的初步成效。然而,要準確捕捉和處理否定語句中的細微差異,仍然是一個巨大的挑戰。
Katanforoosh警告說,AI對否定的誤解不僅是一個技術問題,更可能引發法律、醫療和人力資源等領域的重大錯誤。他呼吁,解決這一問題的關鍵在于結合統計學習與結構化思維,提升AI模型的邏輯能力,而不僅僅是簡單地堆砌更多數據。
研究團隊還強調了跨學科合作的重要性。通過聯合計算機科學、語言學和醫學等領域的專家,可以更全面地理解AI在處理否定語句時面臨的挑戰,并共同尋找有效的解決方案。
隨著AI技術的不斷發展和普及,其在醫療等關鍵領域的應用將越來越廣泛。因此,解決AI在處理否定語句方面的缺陷,對于確保AI技術的安全、有效應用具有重要意義。
未來,研究團隊將繼續探索和改進AI模型在處理否定語句方面的表現,以期推動AI技術的進一步發展和應用。