content

劍橋詞典2023年度詞彙「Hallucinate」(圖)

 2023-11-18 01:10 桌面版 简体 打賞 0
    小字

英國《劍橋詞典》(Cambridge Dictionary)評選出2023年度詞彙「Hallucinate」,其新定義與人工智能有關。
英國《劍橋詞典》(Cambridge Dictionary)評選出2023年度詞彙「Hallucinate」,其新定義與人工智能有關。(圖片來源:OLIVIER MORIN/AFP via Getty Images)

【看中國2023年11月18日訊】(看中國記者東辰雨綜合報導)今年,全球對ChatGPT等生成式人工智能(AI)工具興趣激增,公眾注意力也轉向了人工智能的局限性以及如何克服這些局限性。因此,英國《劍橋詞典》(Cambridge Dictionary)評選出2023年度詞彙「Hallucinate」。

英國劍橋大學官方網站稱,Hallucinate(產生幻覺)有關人工智能的新定義,這是其獲選2023年《劍橋詞典》年度詞彙的原因。

人工智能工具,尤其是那些使用大型語言模型(large language model,LLM)的工具,已被證明能夠產生看似合理的內容,但它們經常使用虛假、誤導性或捏造的「事實」來做到這一點,可以令人產生一種自信且可信的「幻覺」。

Hallucinate(產生幻覺)的傳統定義是「似乎看到、聽到、感覺到或聞到了不存在的東西,通常是因為健康狀況或服用了藥物」。這個心理學動詞新的附加定義是:「當人工智能(=具有人類大腦所具有的某些品質的計算機系統,例如以看似人類的方式產生語言的能力)產生幻覺時,它會產生虛假信息。」

Hallucinate(產生幻覺)新的定義表明,人工智能技術擬人化的趨勢日益明顯,這是談論、寫作和思考機械的時候,所使用模擬人類的隱喻。

人工智能幻覺(AI hallucinations),已經對現實世界產生了影響。美國一家律師事務所使用ChatGPT進行法律研究,導致在法庭引用了虛構的法律案例。在Google為其人工智能聊天機器人Bard製作的宣傳影片中,人工智能工具對詹姆斯·韋伯(James Webb)太空望遠鏡犯了一個事實錯誤。

英國BBC新聞、《衛報》報導,《劍橋詞典》出版經理溫達琳·尼科爾斯(Wendalyn Nichols)說:「人工智能可以令人『產生幻覺』,這一事實提醒我們,人類仍然需要批判性思考技能來使用這些工具。人工智能非常擅長處理大量數據,以此提取特定信息並對其進行整合。但你越要求其原創性的時候,它們就越有可能偏離正軌。」

溫達琳·尼科爾斯稱:「在最好的情況下,大型語言模型的可靠性取決於其訓練的資料信息。可以說,人類的專業知識比以往任何時候都更重要,也更受尊重,由此創建法學碩士可以接受培訓的權威和最新信息。」

劍橋大學人工智能倫理學家亨利·謝夫林(Henry Shevlin)博士說:「當然,不準確或誤導性的信息長期以來一直存在於我們身邊,無論是謠言、宣傳還是假新聞。雖然這些通常被認為是人類的產品,但『幻覺』是一個令人回味的動詞,意味著一個人經歷了與現實的脫節。這種語言選擇反映了一種微妙而深刻的感知轉變:『產生幻覺』的是人工智能,而不是使用者。儘管這並不表示人們普遍相信人工智能有感知能力,但它強調了我們願意將類似人類的屬性賦予人工智能。」

亨利·謝夫林博士說:「隨著這10年的發展,預計我們的心理詞彙將進一步擴展,以涵蓋我們正在創造新智能的奇怪能力。」

在《柯林斯詞典》(Collins English Dictionary)將其年度詞彙命名為「AI」之後,《劍橋詞典》選出了2023年度詞彙Hallucinate(產生幻覺)。


来源:看中國 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意