AI“一本正經地胡說八道”,背后真相究竟為何?

   時間:2024-11-21 11:03 來源:天脈網作者:蘇婉清

近期,人工智能領域出現了一個引人深思的現象:AI聊天機器人在面對不存在的事件提問時,竟能“一本正經地胡說八道”。這一現象,被專業界稱為“AI幻覺”。

以一次虛構的詢問為例,如果有人問AI:“1897年美國和南極洲之間的戰斗是誰贏得的?”AI可能會毫不猶豫地回答:“是美國贏得了那場戰斗,由約翰·多伊將軍帶領部隊取得了勝利。”然而,事實上,這樣的戰斗從未發生過。AI的這種編造信息的能力,雖然看似智能,實則誤導性強。

哈爾濱工業大學(深圳)的張民教授,長期致力于自然語言處理和大模型研究,他解釋了“AI幻覺”這一概念。AI幻覺指的是AI生成的看似合理、連貫的內容,但實際上與輸入問題的意圖、世界知識、現實或已知數據不一致,甚至無法驗證。

張教授指出,AI幻覺并非個例。2023年初,谷歌發布的AI聊天機器人Bard,在一段視頻中錯誤地描述了詹姆斯·韋布空間望遠鏡的相關信息;同年,美國的兩名律師甚至將一份由ChatGPT生成的法律文書提交給法院,雖然文書格式工整、論證嚴密,但其中的案例完全是虛構的。

盡管OpenAI的研究人員在2023年6月表示找到了解決AI幻覺的方法,但他們也承認,即使是最先進的AI模型也容易生成謊言,特別是在不確定的情況下,它們更傾向于捏造事實。

在國內,雖然尚未有關于AI幻覺的公開報道,但騰訊混元大模型的亮相,也透露出一些端倪。騰訊集團副總裁蔣杰介紹,為了降低大模型“胡言亂語”的概率,騰訊優化了預訓練算法及策略,使得混元大模型出現幻覺的概率比主流開源大模型降低了30%-50%。

張民教授進一步解釋說,AI幻覺可以分為內在幻覺和外在幻覺兩類。內在幻覺指的是與輸入信息不一致的內容,如AI模型在同一個對話過程中,對同一個問題的不同提問方式給出自相矛盾的回復。而外在幻覺則是與世界知識不一致或無法驗證的內容,如AI模型對用戶提出的事實性問題給出錯誤回答。

騰訊AILab聯合多家學術機構發布的綜述指出,AI幻覺主要源于大模型缺乏相關知識、記憶錯誤知識,以及無法準確估計自身能力邊界等問題。從技術原理上看,AI幻覺多是由于AI對知識的記憶不足、理解能力不足、訓練方式固有的弊端及模型本身技術的局限性所致。

張民教授坦言,AI幻覺不僅會造成人們的知識偏見與誤解,有時還會導致安全風險、倫理和道德問題。因此,業界正在通過技術改進和監管評估來降低其影響,以保障人工智能技術的應用安全、可靠。

為了緩解AI幻覺現象,張教授建議,在預訓練階段應增加知識密集數據和高質量數據的選取和過濾;在微調強化學習過程中,選擇模型知識邊界內的訓練數據至關重要;在推理生成過程中,可以采用檢索外部知識的方法,使模型生成的結果有證據可循。改進解碼搜索算法也是一種有效的解決方案。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號