谷歌人工智能搜索失败:从离奇错误信息到公共健康风险
作者的观点完全是他们自己的(不包括催眠的不太可能发生的情况)并且可能并不总是反映 Moz 的观点。
Google 在某些方面做得非常好。我认为他们的文字处理套件(包括 Google Docs、Google Sheets 和相关产品)是网络上最好的产品之一,因为它支持协作工作。我每天都怀着感激之情使用它,希望他们推出的所有产品都能如此巧妙。
但是,在经过一年有限的公开SGE 实验之后, 2024 年 5 月推出的 AI 概览(如上图所示)出现了严重问题。
目前,谷歌搜索结果中占据优质屏幕空间的“人工智能” 以色列电报数据 答案旨在快速向搜索者传递信息,但它们传递的错误信息却屡见不鲜,有的完全荒诞无稽,有的危害公共健康。
Google 长期以来一直有推出有问题的产品然后关闭它们的历史,错误是任何高度实验性的环境中的常态。但看看今天的一些例子,很容易理解为什么 SEO 行业对这项功能以目前的状态推出感到震惊。
我将总结一些已发现的最奇怪的人工智能概述,分享一位前谷歌员工对我们为什么现在接触这一功能的看法,并关注一个著名的现实检验轶事,该轶事表明为什么已知的人类轻信需要在任何大型公共实验中被负责任地考虑在内。
人工智能概览失败,从愚蠢到危险
当你看到这些例子时,我希望你在脑海中记住你的个人经历,这个经历告诉你,人类是多么容易被欺骗、愚弄、误导、欺骗或误入歧途。
让我们从Shawn Huber提供的关于谷歌新 AI 概览功能的一个(可能)无害的例子开始,当搜索者想要知道哪些美国总统曾就读于威斯康星大学麦迪逊分校时,该功能出现了错误:
我们可以试着告诉自己,任何有逻辑的人都会意识到,像詹姆斯·布坎南(1868 年去世)这样的总统不可能在他去世的两个世纪里毕业三次,或者 1963 年被暗杀的肯尼迪在三十年后没有上过大学。我们希望大多数人会意识到几乎所有这些人工智能答案都存在严重问题。
但是,如果你不是几十年前在学校学习美国历史,而是现在十岁,试图通过查看谷歌的这个看起来非常官方的答案来研究一份学校报告,而这个答案的排名高于他们的搜索结果中的所有其他答案,那会怎么样呢?你会从网络上获得什么样的教育?你会如何看待这些信息、历史和谷歌?
让我们尝试一个更简单的问题。Lily Ray只是想看看一些 50 多岁女性的例子,但却得到了一位 80 多岁的老人和另一位年龄不详的候选人:
接下来,时间和历史都被扭曲成奇怪的形状,杰西卡·沃恩 (Jessica Vaugn)发现谷歌对《启示录》四骑士的定义与恋爱建议最为密切相关,而不是一部名为《启示录》的古老圣经文本。在我看来,答案传达了这样一种观点,即《新约》的写作主要是为了为流行心理学提供这种隐喻:
技术信息,至少对于 SEO 行业来说,似乎也不是
AI 概述的强项,通过阅读Tamara Hellgren在询问如何成为 以公益广告形式留下评论 Google 第一时收到的这份特殊建议列表中的最后三个定义,你很快就会意识到这一点:
考虑拿着剪刀跑?Joe Youngblood报道称,谷歌似乎对此表示支持,因为它以一种看起来很真实的形式呈现了一个笑话:
这些都已经够糟糕了,但可能不会对公众健康构成威胁……直到我们在这个新的人工智能概览时代开始用谷歌搜索与健康相关的信息。
到目前为止,我看到被引用最多的例子是人工智能指示我们喝人体体液以快速冲洗肾结石。公众普遍对这种荒谬的建议感到厌恶,但我在 Twitter 上只看到一个人——Tyler The Wise——引用了这一突出信息中的另一个明显错误:
我听患者说,肾结石的形成和排出过程非常痛苦。 不丹商业指南 在剧烈的身体疼痛中,你可能没有最敏锐的洞察力,但我真心希望没有人会如此痛苦,以至于他们会根据谷歌的这个非常官方的答案喝下几升或几夸脱的液体。不过,你永远不知道别人会怎样。你永远不知道。
据报道,在新冠疫情初期,一些人喝漂白剂作为“补救措施”。至于液体量度差异,如果你被人工智能指示将错误量的东西倒入食谱、汽车发动机或任何大型电器中,这可能会带来一些严重的后果。特别是如果人工智能告诉你在披萨酱中加入胶水,正如 Peter Yang 在 X 上分享的那样。