聊天機器人的回答出現事實錯誤并不新鮮,這也是目前此類大語言模型的主要問題之一,而且谷歌昨天也直截了當地說 Bard 的回答將包含事實錯誤,那為什么還報道這個消息呢?并不是要故意挑 Bard 的毛病,而是這個錯誤比較有意思。
原來,Bard 的這個錯誤回答的消息來源是一個網友在 Hacker News 上開玩笑的帖子,他調侃稱谷歌會在一年內關閉 Bard,過去谷歌確實關閉了很多自家的服務。Bard 沒有理解這個帖子的語境和幽默感,把它當作事實分享給了用戶。
谷歌也承認 Bard 會包含一些事實錯誤,因為它是從網上獲取信息的,微軟的新必應也有類似的問題。這個問題是基于大語言模型(LLMs)的人工智能所面臨的最大挑戰之一,隨著時間的推移,谷歌和微軟都會改進獲取信息的過程,但偶爾還是會出現一些問題。此外,Bard 還處于預覽階段,所以還需要經過更多的公眾測試。
如何讓這些聊天機器人更好地辨別虛假消息,是這些科技巨頭需要嚴肅考慮的問題。