2023年2月,Google AI推出了一项名为AI Overview的功能,旨在为用户提供综合多个内容来源的摘要,并附带相关的链接。然而,不久之后,AI Overview就在美国用户中出现了问题。用户发现,AI Overview提供的答案存在事实错误,甚至有些答案是荒谬的。这一情况引发了用户的不满和争议,一些用户甚至开发了扩展程序,强制使Google搜索只显示传统的搜索结果。此外,AI Overview还受到了一些内容来源的质疑,因为它引用的内容并不一定可信。
AI Overview的问题其实并不罕见,AI经常会犯错,这早已是公开的秘密。大型语言模型的基本原理是根据预测最有可能出现的词汇或短语生成内容,有时可能会选择不正确但看似合理的词汇,这就导致了虚假信息或所谓的“幻觉”。AI Overview的胡言乱语也是幻觉的表现,它结合了大型语言模型生成的句子和互联网的链接,可以引用内容来源,但不保证这些引用内容的准确性。即使采用了RAG(检索增强生成)等技术,将检索系统与生成模型相结合,限制回答问题的范围,也只能抑制幻觉,而不能根除幻觉。
此外,AI Overview的内容来源本身的可信度也是存在问题的。例如,Google与Reddit达成协议,将Reddit的内容用于训练AI模型。但Reddit是一个由网友贡献内容的论坛,并非权威媒体,因此其内容的可信度存疑。类似的情况在去年发生在微软的“New Bing”上,用户发现其回答明显错误,并且引用的回答也是由AI生成的。这些问题并不只是Google所独有的,其他公司也都可能面临类似的困扰。
AI搜寻的幻觉问题并不容易解决,甚至可以说是大型语言模型固有的特征。因此,我们应该换个角度来看待AI搜寻,思考我们的期望是否出现了错误。AI搜寻的目标并不一定是理解事实,但这并不意味着大型语言模型一无是处。大型语言模型可以创造诗歌、引入搜寻等功能。Google的思路是通过使搜寻更加可视化、更具互动性和个性化,用人话而非关键字进行交流,节省查询内容的时间,并回答更复杂和具体的问题。
虽然AI搜寻存在幻觉问题,但这并不意味着AI搜寻毫无价值。AI搜寻可以帮助用户进行研究、创作、规划和创意发想等。然而,用户在使用这些功能时应保持警惕,建议在使用生成式AI时,不要只看摘要,还要使用传统的Google搜寻进行核实。
总之,AI搜寻的幻觉问题是一个公开的秘密,我们应该对其有清醒的认识。虽然AI搜寻存在问题,但其在提供某些方面的便利性和创新性方面仍具有价值。然而,用户在使用AI搜寻时应保持警惕,同时也要意识到AI并非是完美无缺的,存在一定的局限性。
Share this content: