馬斯克起訴OpenAI及其CEO奧特曼 :違背科技造福人類的初衷(圖)
全球科技巨頭、特斯拉CEO埃隆.馬斯克(Elon Musk)起訴OpenAI及其CEO奧特曼 :違背科技造福人類的初衷。(圖片來源:Chesnot/Getty Images)
【看中國2024年3月1日訊】(看中國記者楊天資編譯/綜合報導)人工智慧的無限制發展已威脅到人類的安全,這已經不是將來時,而是現在進行時。全球科技巨頭、特斯拉CEO埃隆.馬斯克(Elon Musk)於當地時間2月29日晚間,向舊金山高等法院提起訴訟,由洛杉磯的律師事務所Irell&Manella代表,以違反合同為由起訴OpenAI及其CEO薩姆.奧特曼(Sam Altman)。
馬斯克起訴OpenAI及其CEO奧特曼 :違背技術造福人類的初衷
埃隆.馬斯克(Elon Musk)在訴訟中表示,奧特曼和OpenAI違背了這家人工智慧研究公司成立時達成的一項協議,即開發技術以造福人類而不是利潤。
馬斯克聲稱OpenAI最近與科技巨頭微軟的關係損害了該公司致力於公共、開源的通用人工智慧的初衷。
法院文件顯示,馬斯克對OpenAI提出了包括違約、違反信託義務和不公平商業行為在內的指控,並要求該公司恢復開源。馬斯克還要求法院下達禁令,禁止OpenAI、其總裁格雷戈裡.布羅克曼和奧特曼(Sam Altman)(此案的共同被告)以及微軟從該公司的人工通用智能技術中獲利。
馬斯克說:「OpenAI已經轉變為世界上最大的科技公司微軟事實上的閉源子公司。在新董事會的領導下,它不僅是在開發,而且實際上是在完善AGI,以實現微軟的利潤最大化,而不是造福人類。」
馬斯克表示,AGI是一種被開發用於自主展現與人類相當認知水平的AI類型,其在OpenAI的GPT-4模型中得到了體現。馬斯克指出,於2023年3月發布的GPT-4與之前的版本相比仍是一個封閉模型,而這一舉措是出於商業考慮,而不是人類利益。
馬斯克在訴訟中寫道:「GPT-4的內部細節只有OpenAI知道,在信息和信念上,微軟也知道。因此,GPT-4是『開放式AI』的對立面,它的封閉是出於正當的商業原因:微軟希望通過向公眾出售GPT-4來賺錢,如果OpenAI——它被要求這樣做——讓公眾免費使用這項技術,這將是不可能的......與創始協議相反,被告選擇使用GPT-4不是為了人類的利益,而是作為專利技術,為世界上最大的公司實現利潤最大化。」
馬斯克還在訴訟中提及了2023年OpenAI的「政變」風波。馬斯克稱,奧特曼的短暫離職促使微軟介入,並迫使試圖罷免他的董事會成員辭職,OpenAI目前的董事會成員不再是支持和瞭解該技術的科學家和研究人員。
馬斯克是OpenAI的聯合創始人之一,但於2018年離開董事會。他表示,董事會與奧特曼之間的衝突源於GPT-4的開發和AGI技術可能出現的下一次迭代,馬斯克擔心這可能會危及公共安全。
奧特曼因激進研究恐致「AI滅絕人類」
去年11月,OpenAI人事大地震成為這個週末科技業界的大新聞,ChatGPT之父奧特曼(Sam Altman)於11月17日被董事會解僱的消息震驚全球,並引起外界無限猜想。有消息披露奧特曼在開展AI研究時可能過於激進,這可能導致AI人工智慧「終有一天會導致人類滅絕」。
當時外界分析,奧特曼的突然遭炒魷魚確實暗示了未來業界將出現的一場爭論,發展AI與安全的矛盾——有如一些科學研究、如基因改造的禁忌一樣,AI的發展今後也會被設置道德的界限。
自前年,OpenAI建造的ChatGPT在科技業界引起革命,推動生成式AI的快速發展。在今天所有文字的生成式AI,包括微軟所使用的AI軟件,都是建立自ChatGPT上。
ChatGPT在2022年11月發布,短短一年全球使用者突破1億,有200萬人正參與開發,發展速度之快讓人驚訝。
一些安全倡導者指出,OpenAI和其他公司發展AI的速度過快,忽視了提倡謹慎行事的聲音。這爭論在OpenAI的員工中已持續了多年,2020年一群OpenAI的員工因為擔心公司過於商業化,把利益放置在安全之上而辭職,部份員工後來成立了Anthropic,他們認為奧特曼(Sam Altman)在開展AI研究時可能過於激進。
OpenAI在2015年成立,當時是一間非牟利研究機構,至2019年才成立一家有限盈利的子公司。OpenAI聲稱這是一種創新安排,投資者的回報受到限制,目的是讓公司保留非營利組織的使命。公司賦予了董事會管理有限利潤實體的權力。這與其它一般企業不同,奧特曼作為公司的領導者,不直接持有OpenAI的任何股份,而董事會有權投票直接開除他。
董事會成員中最少有兩人、即是麥考利(Tasha McCauley)和托納(Helen Toner)與有效利他主義(Effective Altruism)運動有關聯,這是一個倫理運動,運動的成員推動了對AI的安全研究,他們認為失控的強大的AI終有一天會導致人類滅絕。
從英國著名理論物理學家史蒂芬.霍金(Stephen Hawking)到特斯拉創始人伊隆.馬斯克(Elon Musk)等世界頂尖人工智慧(AI)專家,都曾表示過人工智慧對人類生存的威脅。
已經去世的史蒂芬.霍金於2015年8月在美國Reddit網站上,首次提出對人工智慧的“威脅論”,他確信「優異的AI絕對會實現它的目標,因此當人類與它道不同時,絕對有間接或直接剷除人類的可能」。
後來又不斷地警告:「人工智能系统會自行啟動,並以前所未有的速度不斷的重新設計、自我改良。」
「研究人工智慧如同在召唤惡魔」
「全面性的開發人工智慧有一天可能會導致人類滅亡!」。
馬斯克(2002年創建私人太空發射公司SpaceX)於2017年7月,一次由美國各州、領地及聯邦組成的「國家管理者協會」(National Governors Association)的會議上,再次重申了他對AI發展的遠期擔憂——「我接觸過最先進的人工智能,我認為人類的確應該對它感到擔心。」
他還說:「這是人類文明所面對過的最大挑戰。」
馬斯克還表示沒人聽他的警:「我試圖說服人們降低AI的發展速度、監管AI,但是無效。我試了很多年,沒有人聽。」、「AI的發展似乎不受人類控制」
「人工智能比核能武器更危险」!
英文報導:https://www.courthousenews.com/elon-musk-sues-openai-over-ai-threat/