在 Google I/O 大會上,Google 為搜尋引擎加入 AI 總結功能,能夠不必一個個查看網頁,就自動整理出搜尋內容的主要結論,但這項功能上線之後,網友卻發現這個 AI 的整合能力似乎有待加強,甚至會將不正確、具危險性的敘述參雜在其中。
Update 2024 年 5 月 30 日
台灣 Google 發言人補充「近期出現許多經過變造的圖片案例,其中也包含自我傷害相關指示的資訊。這些回應從未出自於我們的產品,並正在協助散播有害資訊。 」
【新聞原文】
網友試著詢問:「起司為何不會黏在披薩上」,Google AI 總結出可能是因為醬料太多、起司太多或是醬料太厚。
然而提供解決方式就相當離譜,Google AI 給出的其中一個方法居然是將 1/8 匙的無毒膠水混進醬料裡來增添黏性!而這個答案的出處實際是源自 11 年前 Reddit 上網友惡搞的回答。
但這並非最誇張,有網友搜尋「感到憂鬱怎麼辦?」,Google AI 又把 Reddit 論壇的內容做為建議,且居然向用戶推薦可以從金門大橋(Golden Gate Bridge)上跳下去!
除了一些可能潛在危險性的答案外,Google AI 似乎也很擅長一本正經的胡說八道,像是 3 年相當於幾個月,得到的答案卻 36.025 個月。或是告知網友使用汽油來煮義大利麵不會比較快,但可以用來製作辣味義大利麵,等前後文邏輯不通的內容。
外媒 The Verge 將相關的結果向 Google 官方進行詢問,發言人 Meghann Farnsworth 表示這些離譜的答案通常是因為「問題不夠嚴謹」所致,不能代表多數人的使用狀況,公司目前已經正在處理與改善此部分問題,並會利用網友們搜尋出的結果來做為調整參考。
這並非第一次 Google AI 出現離譜瑕疵,在先前 Gemini 1.5 加入 AI 圖片生成功能時,曾發生強制「多元」事件,造成生成的圖片即便是歷史真實存在的人物,也會胡亂替換人種,被質疑是歧視,讓 Google 一度出面致歉並暫時將圖片生成功能進行下架調整。
關於 Google AI 總結胡亂回答的情況已經在網路社群上成為了迷因,有一部分網友覺得這可能跟 Google 因為市場競爭的關係,逼不得已趕鴨子上架才導致整體的正確性與品質欠缺,就現階段的表現而言, AI 總結功能只能算是輔助參考,還是需要進一步地進行求證,千萬不可照單全收。