content

剑桥词典2023年度词汇“Hallucinate”(图)

 2023-11-18 01:10 桌面版 正體 打赏 0

英国《剑桥词典》(Cambridge Dictionary)评选出2023年度词汇“Hallucinate”,其新定义与人工智能有关。
英国《剑桥词典》(Cambridge Dictionary)评选出2023年度词汇“Hallucinate”,其新定义与人工智能有关。(图片来源:OLIVIER MORIN/AFP via Getty Images)

【看中国2023年11月18日讯】(看中国记者东辰雨综合报导)今年,全球对ChatGPT等生成式人工智能(AI)工具兴趣激增,公众注意力也转向了人工智能的局限性以及如何克服这些局限性。因此,英国《剑桥词典》(Cambridge Dictionary)评选出2023年度词汇“Hallucinate”。

英国剑桥大学官方网站称,Hallucinate(产生幻觉)有关人工智能的新定义,这是其获选2023年《剑桥词典》年度词汇的原因。

人工智能工具,尤其是那些使用大型语言模型(large language model,LLM)的工具,已被证明能够产生看似合理的内容,但它们经常使用虚假、误导性或捏造的“事实”来做到这一点,可以令人产生一种自信且可信的“幻觉”。

Hallucinate(产生幻觉)的传统定义是“似乎看到、听到、感觉到或闻到了不存在的东西,通常是因为健康状况或服用了药物”。这个心理学动词新的附加定义是:“当人工智能(=具有人类大脑所具有的某些品质的计算机系统,例如以看似人类的方式产生语言的能力)产生幻觉时,它会产生虚假信息。”

Hallucinate(产生幻觉)新的定义表明,人工智能技术拟人化的趋势日益明显,这是谈论、写作和思考机械的时候,所使用模拟人类的隐喻。

人工智能幻觉(AI hallucinations),已经对现实世界产生了影响。美国一家律师事务所使用ChatGPT进行法律研究,导致在法庭引用了虚构的法律案例。在Google为其人工智能聊天机器人Bard制作的宣传影片中,人工智能工具对詹姆斯·韦伯(James Webb)太空望远镜犯了一个事实错误。

英国BBC新闻、《卫报》报导,《剑桥词典》出版经理温达琳·尼科尔斯(Wendalyn Nichols)说:“人工智能可以令人‘产生幻觉’,这一事实提醒我们,人类仍然需要批判性思考技能来使用这些工具。人工智能非常擅长处理大量数据,以此提取特定信息并对其进行整合。但你越要求其原创性的时候,它们就越有可能偏离正轨。”

温达琳·尼科尔斯称:“在最好的情况下,大型语言模型的可靠性取决于其训练的资料信息。可以说,人类的专业知识比以往任何时候都更重要,也更受尊重,由此创建法学硕士可以接受培训的权威和最新信息。”

剑桥大学人工智能伦理学家亨利·谢夫林(Henry Shevlin)博士说:“当然,不准确或误导性的信息长期以来一直存在于我们身边,无论是谣言、宣传还是假新闻。虽然这些通常被认为是人类的产品,但‘幻觉’是一个令人回味的动词,意味着一个人经历了与现实的脱节。这种语言选择反映了一种微妙而深刻的感知转变:‘产生幻觉’的是人工智能,而不是使用者。尽管这并不表示人们普遍相信人工智能有感知能力,但它强调了我们愿意将类似人类的属性赋予人工智能。”

亨利·谢夫林博士说:“随着这10年的发展,预计我们的心理词汇将进一步扩展,以涵盖我们正在创造新智能的奇怪能力。”

在《柯林斯词典》(Collins English Dictionary)将其年度词汇命名为“AI”之后,《剑桥词典》选出了2023年度词汇Hallucinate(产生幻觉)。


来源:看中国 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意