Google AI 遭遇了一系列的問題,從 AI 系統生成的錯誤資訊,到基於大型語言模型的幻覺 AI 搜尋功能的不準確性。這些問題引起了用戶的關注和批評。Google I/O 大會推出的 AI Overview 功能被視為解決問題的方法,但卻在一開始就出現了困擾。AI Overview 在生成摘要和連結時,往往會提供一些不正確的訊息,甚至還引用了不可靠的來源。
這些問題的根源在於大型語言模型的特性。大型語言模型利用預測下一個詞彙或短語的機率來生成內容,有時會選擇看似合理但不正確的詞語,導致虛假訊息的產生。AI Overview 的幻覺表現,是由於它結合了大型語言模型生成的語句和網際網路的連結,這些連結並不保證準確性。儘管使用了檢索增強生成等技術來限制回答問題的範圍,但這只能抑制幻覺,無法完全解決。
另一個問題是內容來源的可信度。Google 使用了 Reddit 的內容來訓練 AI 模型,然而 Reddit 是由網友貢獻內容的平台,並非權威媒體。這樣的內容來源可能導致垃圾進垃圾出的情況,進一步影響 AI 搜尋的準確性。
AI 搜尋的問題並不僅僅是 Google 面臨的困境,其他公司也遇到了類似的挑戰。微軟的 New Bing 在回答問題時,也出現了明顯錯誤的情況。這些問題導致了對於 AI 搜尋的質疑和批評。
Google 作為 AI 巨頭,承擔著更高的期望和責任。然而,Perplexity 的 CEO Aravind Srinivas 表示,他們的產品表現不錯,但如果 Google 的產品只有 70% 的準確性,用戶可能會感到困惑。這也說明了 AI 搜尋在使用者認知上的轉變,以前我們說「用 Google 搜尋」,現在則是「讓 Google 為你進行搜尋」。
儘管 AI 搜尋存在幻覺問題,但是它仍然有許多潛力。Google 在未來計劃改進 AI 搜尋的功能,使其更加可視化、互動性強、個性化,並能夠回答更加複雜和具體的問題。AI 搜尋的目標是節省用戶查詢內容的時間,並提供更多研究、創作、規劃和創意發想的可能性。
然而,鑑於幻覺問題的存在,建議用戶在使用 AI 搜尋時要謹慎對待。為了安全起見,可以先使用生成式 AI 查看摘要,然後再使用傳統的 Google 搜尋進行檢查。
總的來說,AI 搜尋的幻覺問題並不是新鮮事,但我們應該改變對 AI 搜尋的期望,並試著理解它的局限性。同時,我們也應該意識到 AI 搜尋的潛力,並期待未來的改進和創新。
Share this content: