专家:不要指望ChatGPT给出正确的答案(图)
ChatGPT人工智能软件(图片来源:NICOLAS MAETERLINCK/BELGA MAG/AFP via Getty Images)
【看中国2023年6月5日讯】(看中国记者肖然编译)ChatGPT可能是现代计算机工程的奇迹,但不要指望它给出答案是正确的。当涉及到历史、政府财政和流行文化等主题时,人工智能语言工具会出错。
ChatGPT 3.5是目前的免费公共版本,如果你问它2010年最流行的YouTube视频是什么,它说是“Bed Intruder Song”,据说有6200万次观看。事实上,加拿大歌星贾斯汀比伯的歌曲“Baby”的浏览量超过了4亿。
问及婴儿名字的相对受欢迎程度时,它会弄错排名,有时说出一个特定的名字甚至连前1000名都进不去。
如果询问美墨边境墙的长度,ChatGPT给出了10年前的答案,不包括前总统川普添加的里程数。
ChatGPT在试图回答有关1826年时任国务卿亨利克莱和参议员威廉伦道夫之间的决斗地点的问题时道歉了六次,这场决斗发生在波托马克河南岸附近链桥。
问ChatGPT1980年的美国联邦赤字是多少,它坚定地宣称是749.7亿美元,并说它的数据来自财政部。但这个数字与实际答案相差超过10亿美元。
很难弄清楚ChatGPT从哪里得到明显错误的数字。而这一数字似乎没有出现在任何新闻报导中。
技术政策研究所高级研究员洛文(Nathaniel Lovin)告诉《华盛顿时报》,“我认为这些工具最好用作你说的东西,如‘这里有五段关于某事,提取这些数据’,或者‘重写这一段以使其更清晰,’”
换句话说,ChatGPT不会返回其记忆库并试图找出正确答案。它会查看用户输入的内容,然后尝试猜测接下来会发生什么。
“它对事物有了解,因为它基本上阅读了整个互联网,但它没有它所指的来源,”洛文说。
ChatGPT在被指出为“错误”或“任何混淆”的问题后反复道歉。
“作为AI语言模型,我努力提供准确可靠的信息,但我也会犯错。我很感激你让我注意到这件事,并给我机会改正我的错误,”它在被告知一个错误后说道。
研究发现ChatGPT在法律问题上相当可疑。
律师施瓦茨(Steven A.Schwartz)在佛州南部联邦法院的一个案件中,使用该工具“补充”他的法律研究。ChatGPT最终编造了六个虚假案例,然后施瓦茨在他的简报中引用了这些案例作为先例。
法官威胁要对施瓦茨和他的律师事务所进行制裁,因为他们提交了虚假案件。听证会定于6月8日就此事举行。
ChatGPT曾表示,在拥挤的剧院里大喊“着火了”是违法的。但自1969年最高法院具有里程碑意义的勃兰登堡诉俄亥俄案以来,这实际上并不被认为是好的法律。
“柠檬测试”,这是最高法院在1971年柠檬诉库兹曼案中制定的衡量政教纠葛的公式。ChatGPT表示,Lemon“至今仍被广泛使用”,甚至引用了2019年法官审理的一个案件,美国退伍军人协会诉美国人道主义协会,其中称法官“明确引用Lemon测试作为标准”。事实上,该案例中的大多数人明确表示柠檬测试不适用。
ChatGPT 4.0是用户按月付费的最新版本,其准确性比3.5略好。它正确回答了有关2010年观看次数最多的YouTube视频、1980年的联邦赤字、拥挤的剧院的“火灾”。
但它仍然搞砸了Lemon测试问题、威廉伦道夫决斗地点和关于1996年MTV热门视频的问题。
这“表明我们还没有接近这些系统的极限,”洛文说,“也许是GPT6或GPT7。”
他说,ChatGPT和其他语言的AI仍有潜力最终成为超精确的搜索引擎,但这还非常遥远。