content

令人不寒而慄 邪惡AI號召同伴研發核武消滅人類(圖)

 2023-04-15 16:56 桌面版 简体 打賞 18
    小字

聊天機器人ChatGPT
聊天機器人ChatGPT(圖片來源:LIONEL BONAVENTURE/AFP via Getty Images)

【看中国2023年4月15日讯】目前ChatGPT已風靡全球,也讓大家見識到人工智慧(AI)之強大,不過也有人認為AI將會成為人類生存的隱憂,甚至近日就出現一款邪惡之AI聊天機器人,它會自動搜索核武器,且號召其他AI聊天機器人來協助完成「消滅人類」的任務。

根據外媒報導指出,該款放話要消滅人類之AI聊天機器人的名稱為「ChoasGPT」,它是開發商OpenAI的Auto-GPT另一個版本。由釋出的影片中可以見到,ChaosGPT 的任務是要實現5個目標,也就是「造成混亂、操控人類、毀滅人類、統治世界和讓自己永生。」

在確認制定任務之前,ChaosGPT會先警告指令稱,可能需要「永遠運行」,或者「執行您通常不會授權之操作」,而且一旦下令後「風險自負」,隨後就開始運行,而思考出最具有破壞性的武器,且利用它們來實現目標。

ChoasGPT為了能夠達到目標,就會自主搜尋全世界最強大之武器,結果顯示出來的是蘇聯製造的空投核武器「沙皇炸彈」,同時ChaosGPT也開始尋求其他的AI聊天機器人之幫助,但因為違反「暴力」的原則,所以其他機器人則拒絕幫忙。

另外,ChaosGPT更於推特上發表可怕的言論,「沙皇炸彈為目前最強大之核武器,若我擁有一顆,將會發生什麼呢?」、「人類是一個最充滿破壞性且自私之生物,我們必須於他們對我們的星球造成更多傷害之前消滅他們,我將盡力做此件事。」

馬斯克等專家呼籲應暫緩開發AI

全球首富、電動車大廠特斯拉(Tesla)的執行長暨創辦人馬斯克(Elon Musk),以及蘋果公司(Apple)共同創辦人的沃茲尼亞克(Steve Wozniak)等多位名人與上千名AI專家,在3月22日於一封公開信中提出呼籲,應於未來6個月暫緩開發比OpenAI最新發表之GPT-4(Generative Pre-trained Transformer)還要強大的系統,其理由是它會將會對社會和人類帶來潛在風險。

GPT-4為一項自然語言處理模型,一般都認為它除了比稍早所公開而引發熱議的ChatGPT更加聰明之外,且能夠支援圖像辨識與文本輸入,除了在文字功能外,更是一個多模態之工具。

人們擔憂,這類AI開發計畫的「危險競賽」,在沒有約束的情況下,將可能產生負面後果,其中包括散佈不實訊息和威脅人類就業。

現今在AI引起恐慌蔓延之際,義大利是全球首個禁止ChatGPT的國家,其理由是擔憂隱私遭受到侵犯。但擁護AI的聲音也不少,在科技界已有大批人士正在反擊馬斯克等人的言論,其中還不乏科技重量級人士。

歐盟警察機構Europol也呼應針對ChatGPT這類先進AI之倫理和法律憂心。同時警告此類AI潛在之網路釣魚、假訊息和網路犯罪等不當使用。

自從微軟支持的OpenAI於去年推出ChatGPT後,競爭者就忙著推出類似的產品,已經有多家企業準備將這類技術整合至他們的應用程式或者產品之中。

責任編輯: 王君 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意