Google AI 在推出的 AI Overview 功能中犯下了一系列錯誤,引起了廣大用戶的不滿。這個功能以大型語言模型為基礎,生成綜合多個內容來源的摘要,並附帶連結。然而,這些生成的摘要不僅存在事實錯誤,還引用了來源內容的不準確信息,從而導致了幻覺的產生。這些幻覺問題不僅限於 AI Overview,大型語言模型的幻覺問題一直存在。
幻覺問題是大型語言模型的固有特徵,這些模型利用預測下一個單詞或短語的機率來生成內容,有時會選擇不正確但看似合理的詞語,從而導致虛假的信息生成。AI Overview 的胡言亂語就是幻覺的表現,它結合了大型語言模型生成的語句和網際網路的連結,可以引用內容來源,但不保證這些引用內容的準確性。
除了幻覺問題,AI Overview 還存在可信度的問題。內容來源主要來自 Reddit 這樣的網絡論壇,並非權威媒體,因此其可信度存疑。Google 和 Reddit 的合作使得 AI 模型使用了這些內容來進行訓練,這也引起了人們的擔憂,擔心這樣的內容會導致垃圾信息的生成。
AI 搜尋的幻覺問題並不限於 Google,微軟的 New Bing 在過去也出現過類似的問題。然而,由於 Google 是搜尋的代名詞,作為 AI 巨頭,它需要承擔更多的期望和責任。人們對 Google 的期待更高,但同時也要意識到 AI 搜尋存在幻覺問題是正常的。
AI 搜尋的幻覺問題也引起了對 AI 搜尋的使用者認知上的轉變。過去,人們通常說「用 Google 搜尋」,而現在,Google 自己用 AI 回答問題。這種變化使得傳播錯誤信息的責任從訊息來源轉移到了 Google 身上。
然而,我們應該換個角度看待 AI 搜尋,不要將其僅僅看作對現有網頁的簡單總結。AI 搜尋還有很多其他的應用,比如創作、研究、規劃等。AI 搜尋的目的是讓搜尋更加可視化、互動性和個性化,用人話而非關鍵字溝通,節省查詢內容的時間,並回答更加複雜和具體的問題。
雖然幻覺問題存在,但這並不意味著大型語言模型是無用的。這些模型在創造詩歌、引入搜尋等方面都有著巨大的潛力。同時,AI 搜尋仍然處於發展階段,還有很多功能需要完善和上線。Google 正在努力改進 AI Overview,並提供更多的功能,以提供更好的搜尋體驗。
總的來說,AI 搜尋的幻覺問題是正常的,我們應該對其有一定的容忍度。同時,我們也應該提高對 AI 搜尋的認識,不僅僅依賴於 AI 搜尋的結果,而是通過其他途徑進行查證和確認。只有這樣,我們才能更好地利用 AI 搜尋的功能,並避免被幻覺所困擾。
Share this content: