專家:不要指望ChatGPT給出正確的答案(圖)


ChatGPT人工智能軟件(圖片來源:NICOLAS MAETERLINCK/BELGA MAG/AFP via Getty Images)

【看中國2023年6月5日訊】(看中國記者肖然編譯)ChatGPT可能是現代計算機工程的奇蹟,但不要指望它給出答案是正確的。當涉及到歷史、政府財政和流行文化等主題時,人工智能語言工具會出錯。

ChatGPT 3.5是目前的免費公共版本,如果你問它2010年最流行的YouTube視頻是什麼,它說是「Bed Intruder Song」,據說有6200萬次觀看。事實上,加拿大歌星賈斯汀比伯的歌曲「Baby」的瀏覽量超過了4億。

問及嬰兒名字的相對受歡迎程度時,它會弄錯排名,有時說出一個特定的名字甚至連前1000名都進不去。

如果詢問美墨邊境牆的長度,ChatGPT給出了10年前的答案,不包括前總統川普添加的里程數。

ChatGPT在試圖回答有關1826年時任國務卿亨利克萊和參議員威廉倫道夫之間的決鬥地點的問題時道歉了六次,這場決鬥發生在波托馬克河南岸附近鏈橋。

問ChatGPT1980年的美國聯邦赤字是多少,它堅定地宣稱是749.7億美元,並說它的數據來自財政部。但這個數字與實際答案相差超過10億美元。

很難弄清楚ChatGPT從哪裡得到明顯錯誤的數字。而這一數字似乎沒有出現在任何新聞報導中。

技術政策研究所高級研究員洛文(Nathaniel Lovin)告訴《華盛頓時報》,「我認為這些工具最好用作你說的東西,如『這裡有五段關於某事,提取這些數據』,或者『重寫這一段以使其更清晰,』」

換句話說,ChatGPT不會返回其記憶庫並試圖找出正確答案。它會查看用戶輸入的內容,然後嘗試猜測接下來會發生什麼。

「它對事物有了解,因為它基本上閱讀了整個互聯網,但它沒有它所指的來源,」洛文說。

ChatGPT在被指出為「錯誤」或「任何混淆」的問題後反覆道歉。

「作為AI語言模型,我努力提供準確可靠的信息,但我也會犯錯。我很感激你讓我注意到這件事,並給我機會改正我的錯誤,」它在被告知一個錯誤後說道。

研究發現ChatGPT在法律問題上相當可疑。

律師施瓦茨(Steven A.Schwartz)在佛州南部聯邦法院的一個案件中,使用該工具「補充」他的法律研究。ChatGPT最終編造了六個虛假案例,然後施瓦茨在他的簡報中引用了這些案例作為先例。

法官威脅要對施瓦茨和他的律師事務所進行製裁,因為他們提交了虛假案件。聽證會定於6月8日就此事舉行。

ChatGPT曾表示,在擁擠的劇院裡大喊「著火了」是違法的。但自1969年最高法院具有里程碑意義的勃蘭登堡訴俄亥俄案以來,這實際上並不被認為是好的法律。

「檸檬測試」,這是最高法院在1971年檸檬訴庫茲曼案中制定的衡量政教糾葛的公式。ChatGPT表示,Lemon「至今仍被廣泛使用」,甚至引用了2019年法官審理的一個案件,美國退伍軍人協會訴美國人道主義協會,其中稱法官「明確引用Lemon測試作為標準」。事實上,該案例中的大多數人明確表示檸檬測試不適用。

ChatGPT 4.0是用戶按月付費的最新版本,其準確性比3.5略好。它正確回答了有關2010年觀看次數最多的YouTube視頻、1980年的聯邦赤字、擁擠的劇院的「火災」。

但它仍然搞砸了Lemon測試問題、威廉倫道夫決鬥地點和關於1996年MTV熱門視頻的問題。

這「表明我們還沒有接近這些系統的極限,」洛文說,「也許是GPT6或GPT7。」

他說,ChatGPT和其他語言的AI仍有潛力最終成為超精確的搜索引擎,但這還非常遙遠。

本文留言

作者肖然相關文章


相關文章


近期讀者推薦