谷歌AI Overview功能出现问题,导致搜索结果出现虚假信息,引发了用户的不满和争议。AI Overview是谷歌在最近一次开发者大会上推出的功能,旨在提供综合多个来源的内容摘要,并附上相关链接。然而,这个功能在美国用户中遭遇了一些问题。
谷歌在推出AI Overview时非常有信心,宣布立即向所有美国用户推出,并计划在今年年底扩展到更多国家,预计超过10亿人可以使用。然而不久之后,AI Overview在美国用户中出现了一些错误。
AI Overview的问题主要体现在生成的内容不准确或幻觉。谷歌并没有随意编故事,而是从Reddit论坛中引用了一位用户11年前的评论,但它无法理解人类的幽默,导致了一些荒谬的回答。此外,AI Overview的回答还存在其他问题,比如对一些不常见的问题无法提供准确答案,甚至有的答案被篡改过。
这些问题引发了用户的不满,一些用户甚至制作了一些扩展程序,强制使谷歌搜索只显示传统的搜索结果。这种情况下,谷歌没有提供方便的退出机制,而AI Overview基于传统搜索页面,用户量大,所以有些用户可能会盲目相信它的结果并被误导,后果不堪设想。
其实,AI Overview的问题并不是新鲜事。早在推出之前,谷歌CEO就在接受采访时提到,幻觉问题仍然存在,甚至可以说是大型语言模型固有的特点。大型语言模型的基本原理是根据预测下一个单词或短语生成出现概率最大的内容,有时可能选择不正确但看似合理的词语,从而导致虚假信息或所谓的幻觉。
AI Overview的幻觉问题也是它的表现之一,它结合了大型语言模型生成的句子和互联网上的链接,可以引用内容来源,但无法保证这些引用内容的准确性。即使使用了RAG(检索增强生成)等技术,将检索系统与生成模型相结合,限制回答问题的范围,也只能抑制幻觉,而无法根除。
此外,引用内容本身的可信度也存在问题。就像美国的PTT论坛Reddit一样,它是由网友贡献内容,而非权威媒体。今年2月,谷歌与Reddit达成协议,将其内容用于训练AI模型。当时就有人担心会导致”garbage in, garbage out”(垃圾进,垃圾出)的尴尬情况。
谷歌并不是唯一被幻觉困扰的公司。去年5月,一位用户在询问微软的新版必应搜索时,得到的明显错误的答案,他点开参考链接后发现,作为引用来源的回答居然也是由AI生成的,用词句子充满了人工智能的风格。
AI搜索的幻觉问题不仅仅是谷歌的问题,其他公司也面临类似的挑战。然而,作为AI巨头的谷歌必须承担更多的责任和后果。谷歌作为搜索的代名词,无疑吸引了更多的期望和关注。
AI搜素的幻觉问题可能让人担忧。因此,一些人建议,在使用这些功能时,为了安全起见,可以先使用生成式AI再结合传统的谷歌搜索进行检查。
AI搜索的发展方向在于让搜索更加可视化、互动性和个性化,用更人性化的方式进行沟通,节省查询内容的时间,并回答更复杂和具体的问题。AI搜索的目标是提供更多的研究、创作、规划和创意发想等功能。
虽然AI搜索可能存在幻觉问题,但我们应该换个角度来看待它。我们应该问自己一个问题:是不是我们对它的期望出了问题?AI搜索并不一定是了解事实的最佳途径,但这并不意味着大型语言模型没有价值。大型语言模型可以创造诗歌、引入搜索等功能。
AI搜索的未来还将具备规划能力,比如要求AI规划三天的晚餐,用户可以直接得到一份食谱,并在这个过程中进行个性化定制,比如加上”素食”等要求,然后将这些结果输出到文件中。
谷歌的思路和其他公司的AI搜索产品类似,都是让搜索更加可视化、互动性和个性化,用人话而非关键字进行沟通,节省查询内容的时间,并回答更复杂和具体的问题。
虽然大多数问题可以通过传统搜索得到答案,但AI搜索能够应对更复杂的场景,它比生成式AI多了内容来源,更方便查证,比传统搜索能进行更多的研究、创作、规划和创意发想等。因此,虽然AI搜索可能存在幻觉问题,但我们应该看到它的潜力和发展方向。
总的来说,AI搜索的幻觉问题是一个公开的秘密,但这并不意味着AI搜索没有价值。我们应该对其有一个正确的预期,并意识到它的局限性和改进的空间。通过不断的技术创新和改进,相信AI搜索会越来越好。
Share this content: