劍橋詞典2023年度詞彙「Hallucinate」(圖)
英國《劍橋詞典》(Cambridge Dictionary)評選出2023年度詞彙「Hallucinate」,其新定義與人工智能有關。(圖片來源:OLIVIER MORIN/AFP via Getty Images)
【看中國2023年11月18日訊】(看中國記者東辰雨綜合報導)今年,全球對ChatGPT等生成式人工智能(AI)工具興趣激增,公眾注意力也轉向了人工智能的局限性以及如何克服這些局限性。因此,英國《劍橋詞典》(Cambridge Dictionary)評選出2023年度詞彙「Hallucinate」。
英國劍橋大學官方網站稱,Hallucinate(產生幻覺)有關人工智能的新定義,這是其獲選2023年《劍橋詞典》年度詞彙的原因。
人工智能工具,尤其是那些使用大型語言模型(large language model,LLM)的工具,已被證明能夠產生看似合理的內容,但它們經常使用虛假、誤導性或捏造的「事實」來做到這一點,可以令人產生一種自信且可信的「幻覺」。
Hallucinate(產生幻覺)的傳統定義是「似乎看到、聽到、感覺到或聞到了不存在的東西,通常是因為健康狀況或服用了藥物」。這個心理學動詞新的附加定義是:「當人工智能(=具有人類大腦所具有的某些品質的計算機系統,例如以看似人類的方式產生語言的能力)產生幻覺時,它會產生虛假信息。」
Hallucinate(產生幻覺)新的定義表明,人工智能技術擬人化的趨勢日益明顯,這是談論、寫作和思考機械的時候,所使用模擬人類的隱喻。
人工智能幻覺(AI hallucinations),已經對現實世界產生了影響。美國一家律師事務所使用ChatGPT進行法律研究,導致在法庭引用了虛構的法律案例。在Google為其人工智能聊天機器人Bard製作的宣傳影片中,人工智能工具對詹姆斯·韋伯(James Webb)太空望遠鏡犯了一個事實錯誤。
英國BBC新聞、《衛報》報導,《劍橋詞典》出版經理溫達琳·尼科爾斯(Wendalyn Nichols)說:「人工智能可以令人『產生幻覺』,這一事實提醒我們,人類仍然需要批判性思考技能來使用這些工具。人工智能非常擅長處理大量數據,以此提取特定信息並對其進行整合。但你越要求其原創性的時候,它們就越有可能偏離正軌。」
溫達琳·尼科爾斯稱:「在最好的情況下,大型語言模型的可靠性取決於其訓練的資料信息。可以說,人類的專業知識比以往任何時候都更重要,也更受尊重,由此創建法學碩士可以接受培訓的權威和最新信息。」
劍橋大學人工智能倫理學家亨利·謝夫林(Henry Shevlin)博士說:「當然,不準確或誤導性的信息長期以來一直存在於我們身邊,無論是謠言、宣傳還是假新聞。雖然這些通常被認為是人類的產品,但『幻覺』是一個令人回味的動詞,意味著一個人經歷了與現實的脫節。這種語言選擇反映了一種微妙而深刻的感知轉變:『產生幻覺』的是人工智能,而不是使用者。儘管這並不表示人們普遍相信人工智能有感知能力,但它強調了我們願意將類似人類的屬性賦予人工智能。」
亨利·謝夫林博士說:「隨著這10年的發展,預計我們的心理詞彙將進一步擴展,以涵蓋我們正在創造新智能的奇怪能力。」
在《柯林斯詞典》(Collins English Dictionary)將其年度詞彙命名為「AI」之後,《劍橋詞典》選出了2023年度詞彙Hallucinate(產生幻覺)。
- 關鍵字搜索:
-
劍橋
Hallucinate
劍橋詞典
辭彙
人工智慧