生成式人工智能现在产生离谱幻觉的情况少之又少,但人工智能仍有可能把事情完全搞错,近乎滑稽。
谷歌在将人工智能生成的回答引入搜索引擎的过程中,经历了惨痛的教训,但互联网并没有任其自然发展。社交媒体上充斥着人工智能把答案搞错的例子,从绝妙的到低俗的。
其中目前被大量传播的一个例子是,谷歌建议你“把大约1/8 杯的无毒胶水加到酱料里”,以防止奶酪从披萨上滑落。这个建议(我们强烈建议你不要照做)的出处似乎是11年前Reddit上一个用户的恶搞评论,答案几乎一模一样。
如果你在谷歌上提问,哪位美国总统上过威斯康星大学麦迪逊分校,你得到的答案不仅会让历史老师们落泪,还会让人想起乔治•罗梅罗的僵尸电影。例如,谷歌AI回答,安德鲁•杰克逊总统2005年毕业于这所学校,而其实他1845年就去世了。威廉•哈里森总统在1841年在任31天就去世了,而谷歌AI则说他分别于1953年和1974年毕业。搜索答案还显示,哈里•杜鲁门总统、约翰•肯尼迪总统等也在去世后很久才毕业。
这些错误信息的确源自这所学校,但谷歌AI却没有完全阅读网页上的所有内容。网页上显示,这些是与总统同名的一些校友的毕业年份。从来没有真正的总统从这所学校毕业。
谷歌的一位发言人淡化了这些广为传播的例子,表示:“我们看到的都是不常见的查询,并不代表大多数人的经历。AI Overviews提供的绝大多数信息都是高质量信息,并附有在网上进行更深入信息挖掘的链接。我们的系统旨在自动防止违反政策的内容出现在AI Overviews中。如果确实出现这类内容,我们将采取适当的行动。在推出这个新体验之前,我们已经进行了大量测试。我们将利用这些孤立的例子,继续从整体上完善我们的系统。”
以下是AI“胡言乱语”的一些其他例子:
谷歌的AI Overviews似乎将喜剧/讽刺/讥讽内容作为事实呈现pic.twitter.com/gsXf8Y8eyi
——Joe Youngblood (@YoungbloodJoe) 2024年5月21日
昔日优秀的谷歌AI:让你在被响尾蛇咬伤时,做你不应该做的事情。
从毒蘑菇到被蛇咬伤时的建议,AI内容真的很危险。pic.twitter.com/UZXgBjsre9
——ern. (@ErinEARoss) 2024年5月19日
谷歌AI太聪明了,真的很可怕。pic.twitter.com/7aa68Vo3dw
——Joe Kwaczala (@joekjoek) 2024年5月19日
输入“1,000公里到[词语]”肯定会让糟糕的谷歌AI说一些非常搞笑的话。pic.twitter.com/eOOeb6d08E
——zach silberberg (@zachsilberberg) 2024年5月21日(财富中文网))
翻译:郝秀
审校:汪皓
在披萨上涂胶水只是谷歌AI给出离谱建议的开始。GETTY IMAGES
生成式人工智能现在产生离谱幻觉的情况少之又少,但人工智能仍有可能把事情完全搞错,近乎滑稽。
谷歌在将人工智能生成的回答引入搜索引擎的过程中,经历了惨痛的教训,但互联网并没有任其自然发展。社交媒体上充斥着人工智能把答案搞错的例子,从绝妙的到低俗的。
其中目前被大量传播的一个例子是,谷歌建议你“把大约1/8 杯的无毒胶水加到酱料里”,以防止奶酪从披萨上滑落。这个建议(我们强烈建议你不要照做)的出处似乎是11年前Reddit上一个用户的恶搞评论,答案几乎一模一样。
如果你在谷歌上提问,哪位美国总统上过威斯康星大学麦迪逊分校,你得到的答案不仅会让历史老师们落泪,还会让人想起乔治•罗梅罗的僵尸电影。例如,谷歌AI回答,安德鲁•杰克逊总统2005年毕业于这所学校,而其实他1845年就去世了。威廉•哈里森总统在1841年在任31天就去世了,而谷歌AI则说他分别于1953年和1974年毕业。搜索答案还显示,哈里•杜鲁门总统、约翰•肯尼迪总统等也在去世后很久才毕业。
这些错误信息的确源自这所学校,但谷歌AI却没有完全阅读网页上的所有内容。网页上显示,这些是与总统同名的一些校友的毕业年份。从来没有真正的总统从这所学校毕业。
谷歌的一位发言人淡化了这些广为传播的例子,表示:“我们看到的都是不常见的查询,并不代表大多数人的经历。AI Overviews提供的绝大多数信息都是高质量信息,并附有在网上进行更深入信息挖掘的链接。我们的系统旨在自动防止违反政策的内容出现在AI Overviews中。如果确实出现这类内容,我们将采取适当的行动。在推出这个新体验之前,我们已经进行了大量测试。我们将利用这些孤立的例子,继续从整体上完善我们的系统。”
以下是AI“胡言乱语”的一些其他例子:
谷歌的AI Overviews似乎将喜剧/讽刺/讥讽内容作为事实呈现pic.twitter.com/gsXf8Y8eyi
——Joe Youngblood (@YoungbloodJoe) 2024年5月21日
昔日优秀的谷歌AI:让你在被响尾蛇咬伤时,做你不应该做的事情。
从毒蘑菇到被蛇咬伤时的建议,AI内容真的很危险。pic.twitter.com/UZXgBjsre9
——ern. (@ErinEARoss) 2024年5月19日
谷歌AI太聪明了,真的很可怕。pic.twitter.com/7aa68Vo3dw
——Joe Kwaczala (@joekjoek) 2024年5月19日
输入“1,000公里到[词语]”肯定会让糟糕的谷歌AI说一些非常搞笑的话。pic.twitter.com/eOOeb6d08E
——zach silberberg (@zachsilberberg) 2024年5月21日(财富中文网))
翻译:郝秀
审校:汪皓
The days of whackadoodle hallucinations from generative artificial intelligence might be few and far between now, but AI still can get things so completely wrong it borders on the comical.
Google is learning this the hard way as it rolls out AI-generated answers into search—and the internet is not letting things slide. Social media has been loaded with examples of the AI’s flubs, which range from the sublime to the absolutely ridiculous.
Leading the pack is the now-widely-shared example of Google suggesting you “mix about 1/8 cup of non-toxic glue into the sauce” to keep cheese from sliding off of your pizza slice. The source of this advice (which we strongly suggest you do not follow) is seemingly a joke post from Reddit made 11 years ago by a user whose name we can’t repeat in a family financial publication. (The answers are almost word for word.)
Ask Google which presidents went to the University of Wisconsin-Madison, and you’ll get an answer that not only makes history teachers weep, but could bring to mind a George Romero zombie movie. Andrew Jackson, for instance, who died in 1845, graduated in 2005, Google’s AI says. William Harrison, meanwhile, graduated in 1953 and 1974, which is especially impressive seeing as he died 31 days after his inauguration in 1841. Harry Truman, John Kennedy and others also graduated long after their death.
The source for this misinformation came from the school, actually—only Google AI failed to read the part of the page that said these were the graduation years of alumni with presidential names. No actual president has ever graduated from the school.
A Google spokesperson downplayed the examples going viral, saying, “The examples we’ve seen are generally very uncommon queries, and aren’t representative of most people’s experiences. The vast majority of AI Overviews provide high quality information, with links to dig deeper on the web. Our systems aim to automatically prevent policy-violating content from appearing in AI Overviews. If policy-violating content does appear, we will take action as appropriate. We conducted extensive testing before launching this new experience, and will use these isolated examples as we continue to refine our systems overall.”
Other examples of the AI’s goofs include:
Google's AI Overviews appear to be presenting comedic / sarcastic / satire content as fact pic.twitter.com/gsXf8Y8eyi
— Joe Youngblood (@YoungbloodJoe) May 21, 2024
Good ol’ Google AI: telling you to do the exact things you *are not supposed to do* when bitten by a rattlesnake.
From mushrooms to snakebites, AI content is genuinely dangerous. pic.twitter.com/UZXgBjsre9
— ern. (@ErinEARoss) May 19, 2024
google’s AI is so smart, it’s honestly scary pic.twitter.com/7aa68Vo3dw
— Joe Kwaczala (@joekjoek) May 19, 2024
typing "1000km to [word]" is a surefire way to get the awful google AI to say something incredibly funny pic.twitter.com/eOOeb6d08E
— zach silberberg (@zachsilberberg) May 21, 2024