生成式人工智能現(xiàn)在產(chǎn)生離譜幻覺的情況少之又少,但人工智能仍有可能把事情完全搞錯,近乎滑稽。
谷歌在將人工智能生成的回答引入搜索引擎的過程中,經(jīng)歷了慘痛的教訓,但互聯(lián)網(wǎng)并沒有任其自然發(fā)展。社交媒體上充斥著人工智能把答案搞錯的例子,從絕妙的到低俗的。
其中目前被大量傳播的一個例子是,谷歌建議你“把大約1/8 杯的無毒膠水加到醬料里”,以防止奶酪從披薩上滑落。這個建議(我們強烈建議你不要照做)的出處似乎是11年前Reddit上一個用戶的惡搞評論,答案幾乎一模一樣。
如果你在谷歌上提問,哪位美國總統(tǒng)上過威斯康星大學麥迪遜分校,你得到的答案不僅會讓歷史老師們落淚,還會讓人想起喬治?羅梅羅的僵尸電影。例如,谷歌AI回答,安德魯?杰克遜總統(tǒng)2005年畢業(yè)于這所學校,而其實他1845年就去世了。威廉?哈里森總統(tǒng)在1841年在任31天就去世了,而谷歌AI則說他分別于1953年和1974年畢業(yè)。搜索答案還顯示,哈里?杜魯門總統(tǒng)、約翰?肯尼迪總統(tǒng)等也在去世后很久才畢業(yè)。
這些錯誤信息的確源自這所學校,但谷歌AI卻沒有完全閱讀網(wǎng)頁上的所有內容。網(wǎng)頁上顯示,這些是與總統(tǒng)同名的一些校友的畢業(yè)年份。從來沒有真正的總統(tǒng)從這所學校畢業(yè)。
谷歌的一位發(fā)言人淡化了這些廣為傳播的例子,表示:“我們看到的都是不常見的查詢,并不代表大多數(shù)人的經(jīng)歷。AI Overviews提供的絕大多數(shù)信息都是高質量信息,并附有在網(wǎng)上進行更深入信息挖掘的鏈接。我們的系統(tǒng)旨在自動防止違反政策的內容出現(xiàn)在AI Overviews中。如果確實出現(xiàn)這類內容,我們將采取適當?shù)男袆印T谕瞥鲞@個新體驗之前,我們已經(jīng)進行了大量測試。我們將利用這些孤立的例子,繼續(xù)從整體上完善我們的系統(tǒng)。”
以下是AI“胡言亂語”的一些其他例子:
谷歌的AI Overviews似乎將喜劇/諷刺/譏諷內容作為事實呈現(xiàn)pic.twitter.com/gsXf8Y8eyi
——Joe Youngblood (@YoungbloodJoe) 2024年5月21日
昔日優(yōu)秀的谷歌AI:讓你在被響尾蛇咬傷時,做你不應該做的事情。
從毒蘑菇到被蛇咬傷時的建議,AI內容真的很危險。pic.twitter.com/UZXgBjsre9
——ern. (@ErinEARoss) 2024年5月19日
谷歌AI太聰明了,真的很可怕。pic.twitter.com/7aa68Vo3dw
——Joe Kwaczala (@joekjoek) 2024年5月19日
輸入“1,000公里到[詞語]”肯定會讓糟糕的谷歌AI說一些非常搞笑的話。pic.twitter.com/eOOeb6d08E
——zach silberberg (@zachsilberberg) 2024年5月21日(財富中文網(wǎng)))
翻譯:郝秀
審校:汪皓
在披薩上涂膠水只是谷歌AI給出離譜建議的開始。GETTY IMAGES
生成式人工智能現(xiàn)在產(chǎn)生離譜幻覺的情況少之又少,但人工智能仍有可能把事情完全搞錯,近乎滑稽。
谷歌在將人工智能生成的回答引入搜索引擎的過程中,經(jīng)歷了慘痛的教訓,但互聯(lián)網(wǎng)并沒有任其自然發(fā)展。社交媒體上充斥著人工智能把答案搞錯的例子,從絕妙的到低俗的。
其中目前被大量傳播的一個例子是,谷歌建議你“把大約1/8 杯的無毒膠水加到醬料里”,以防止奶酪從披薩上滑落。這個建議(我們強烈建議你不要照做)的出處似乎是11年前Reddit上一個用戶的惡搞評論,答案幾乎一模一樣。
如果你在谷歌上提問,哪位美國總統(tǒng)上過威斯康星大學麥迪遜分校,你得到的答案不僅會讓歷史老師們落淚,還會讓人想起喬治?羅梅羅的僵尸電影。例如,谷歌AI回答,安德魯?杰克遜總統(tǒng)2005年畢業(yè)于這所學校,而其實他1845年就去世了。威廉?哈里森總統(tǒng)在1841年在任31天就去世了,而谷歌AI則說他分別于1953年和1974年畢業(yè)。搜索答案還顯示,哈里?杜魯門總統(tǒng)、約翰?肯尼迪總統(tǒng)等也在去世后很久才畢業(yè)。
這些錯誤信息的確源自這所學校,但谷歌AI卻沒有完全閱讀網(wǎng)頁上的所有內容。網(wǎng)頁上顯示,這些是與總統(tǒng)同名的一些校友的畢業(yè)年份。從來沒有真正的總統(tǒng)從這所學校畢業(yè)。
谷歌的一位發(fā)言人淡化了這些廣為傳播的例子,表示:“我們看到的都是不常見的查詢,并不代表大多數(shù)人的經(jīng)歷。AI Overviews提供的絕大多數(shù)信息都是高質量信息,并附有在網(wǎng)上進行更深入信息挖掘的鏈接。我們的系統(tǒng)旨在自動防止違反政策的內容出現(xiàn)在AI Overviews中。如果確實出現(xiàn)這類內容,我們將采取適當?shù)男袆印T谕瞥鲞@個新體驗之前,我們已經(jīng)進行了大量測試。我們將利用這些孤立的例子,繼續(xù)從整體上完善我們的系統(tǒng)。”
以下是AI“胡言亂語”的一些其他例子:
谷歌的AI Overviews似乎將喜劇/諷刺/譏諷內容作為事實呈現(xiàn)pic.twitter.com/gsXf8Y8eyi
——Joe Youngblood (@YoungbloodJoe) 2024年5月21日
昔日優(yōu)秀的谷歌AI:讓你在被響尾蛇咬傷時,做你不應該做的事情。
從毒蘑菇到被蛇咬傷時的建議,AI內容真的很危險。pic.twitter.com/UZXgBjsre9
——ern. (@ErinEARoss) 2024年5月19日
谷歌AI太聰明了,真的很可怕。pic.twitter.com/7aa68Vo3dw
——Joe Kwaczala (@joekjoek) 2024年5月19日
輸入“1,000公里到[詞語]”肯定會讓糟糕的谷歌AI說一些非常搞笑的話。pic.twitter.com/eOOeb6d08E
——zach silberberg (@zachsilberberg) 2024年5月21日(財富中文網(wǎng)))
翻譯:郝秀
審校:汪皓
The days of whackadoodle hallucinations from generative artificial intelligence might be few and far between now, but AI still can get things so completely wrong it borders on the comical.
Google is learning this the hard way as it rolls out AI-generated answers into search—and the internet is not letting things slide. Social media has been loaded with examples of the AI’s flubs, which range from the sublime to the absolutely ridiculous.
Leading the pack is the now-widely-shared example of Google suggesting you “mix about 1/8 cup of non-toxic glue into the sauce” to keep cheese from sliding off of your pizza slice. The source of this advice (which we strongly suggest you do not follow) is seemingly a joke post from Reddit made 11 years ago by a user whose name we can’t repeat in a family financial publication. (The answers are almost word for word.)
Ask Google which presidents went to the University of Wisconsin-Madison, and you’ll get an answer that not only makes history teachers weep, but could bring to mind a George Romero zombie movie. Andrew Jackson, for instance, who died in 1845, graduated in 2005, Google’s AI says. William Harrison, meanwhile, graduated in 1953 and 1974, which is especially impressive seeing as he died 31 days after his inauguration in 1841. Harry Truman, John Kennedy and others also graduated long after their death.
The source for this misinformation came from the school, actually—only Google AI failed to read the part of the page that said these were the graduation years of alumni with presidential names. No actual president has ever graduated from the school.
A Google spokesperson downplayed the examples going viral, saying, “The examples we’ve seen are generally very uncommon queries, and aren’t representative of most people’s experiences. The vast majority of AI Overviews provide high quality information, with links to dig deeper on the web. Our systems aim to automatically prevent policy-violating content from appearing in AI Overviews. If policy-violating content does appear, we will take action as appropriate. We conducted extensive testing before launching this new experience, and will use these isolated examples as we continue to refine our systems overall.”
Other examples of the AI’s goofs include:
Google's AI Overviews appear to be presenting comedic / sarcastic / satire content as fact pic.twitter.com/gsXf8Y8eyi
— Joe Youngblood (@YoungbloodJoe) May 21, 2024
Good ol’ Google AI: telling you to do the exact things you *are not supposed to do* when bitten by a rattlesnake.
From mushrooms to snakebites, AI content is genuinely dangerous. pic.twitter.com/UZXgBjsre9
— ern. (@ErinEARoss) May 19, 2024
google’s AI is so smart, it’s honestly scary pic.twitter.com/7aa68Vo3dw
— Joe Kwaczala (@joekjoek) May 19, 2024
typing "1000km to [word]" is a surefire way to get the awful google AI to say something incredibly funny pic.twitter.com/eOOeb6d08E
— zach silberberg (@zachsilberberg) May 21, 2024