這並不是一個幻覺,但這是AI工具製成的另一個情況。 學分:鄭Xin/Getty圖像的照片插圖
Google的AI概述有時就像一個失落的男人一樣,他不會要求指示:它會自信地犯錯,也不願承認它不知道。
我們之所以知道這一點,是因為在線人們注意到您可以向Google詢問任何人造成語 - 任何隨機的,胡說八道的話,您可以化妝 - 而Google AI概述通常會規定其含義。這並不奇怪,因為AI對或者為了提供數據不足的答案。
對於化妝習慣的情況,看到Google的AI如何回應諸如“您不能舔兩次”之類的愚蠢說法,這很有趣。在X上,SEO專家莉莉·雷(Lily Ray)被稱為“ AI-Splaining”現象。
可混合的輕速速度
我也測試了“化妝成語”趨勢。一個短語 - “不要給我自製的番茄醬,告訴我這是好東西” - 回答“ AI概述不適合此搜索”。但是,我的下一個構成的短語 - “你不能用舊熊握手”得到了回應。顯然,Google的AI認為這句話表明“老熊”是一個不可信的人。
圖片來源:屏幕截圖:Google
在這種情況下,Google AI概述對製作東西的偏愛很有趣。在其他情況下 - 例如- 這可能是相對無害的。當它首次推出時,它告訴人們。 AI幻覺的其他例子不那麼有趣。請記住,Google警告用戶AI概述可能會弄錯事實,儘管它仍然是許多搜索結果的頂部。
因此,隨著舊的,悠久的成語的發展:用AI警惕搜索,您看到的可能是謊言。