國際科技巨頭、特斯拉CEO埃隆.馬斯克(Elon Musk)。(圖片來源:Chesnot/Getty Images)
【看中国2024年5月25日讯】(看中國記者楊天資編譯/綜合報導)人工智慧AI近年爆炸性成長,「AI會搶走人類的工作」看似已不是遙不可及的事情。國際科技巨頭、特斯拉CEO埃隆.馬斯克(Elon Musk)最近表示,未來AI恐怕會搶走人類所有的工作,未來「工作」這件事情恐怕會成為人類的「興趣」。
馬斯克:AI會搶走人類所有工作
當地時間5月23日,馬斯克在巴黎舉行的VivaTech 2024科技大會上談到人工智慧時表示:「我們當中的任何人,在未來可能都會找不到工作。屆時,工作這件事情可能就會變成人類的『興趣』之一。但無論如何,人工智慧與機器人的發展,屆時將會達到提供人類所需的商品與服務的等級」。」
這位科技大亨表示,在他看來,人工智慧的進步有80%的可能性會導致人類不需要工作就能擁有他們所需要的一切。
他說:「如果你想做一份有點像愛好的工作,你可以做。但除此之外,AI和機器人將提供你想要的任何商品和服務。」但馬斯克強調,要進入到這樣的階段,就必須要實現「國民收入達到一定高水平」才有機會。而這樣的「高水平」到底要多高,馬斯克在演說中並未公布。
馬斯克也提到「屆時真正的問題是,如果所有事情都能交給AI與機器人來做的話,你的生命還有意義嗎?」不過馬斯克後續也提到,或許到那樣的階段,人類還是能在其中找到自己扮演的角色。
在被問到「如果一台計算機可以做的事,並且機器人可以比你做得更好……你的生活如何有意義?」馬斯克說:「在良性的情況下,這確實是個問題,而在消極的情況下,所有的賭注都將落空,我們將陷入嚴重的麻煩」。
馬斯克最新訪談:AI必須追求真實 谷歌和OpenAI都被政治正確走歪了
馬斯克(Elon Musk)23日通過直播視頻連線的方式,接入法國巴黎舉行的VivaTech 2024科技大會。基於觀眾的系列問題,他結合自己的使命再次強調了人工智慧AI應安全發展,並警示訓練人工智慧需要追求真實,而非政治正確,對當下OpenAI和谷歌的AI發展態勢感到擔憂。同時對SpaceX、火星移民等話題都發表了個人觀點。
TUNE IN: @ElonMusk joins us LIVE at #VivaTech 2024 💥 https://t.co/Mbp4SoxKrb
— Viva Technology (@VivaTech) May 23, 2024
馬斯克有關AI的觀點經智能湧現整理如下:
問:我想知道如何說服人們意識到AI的危險?
馬斯克:是的,我認為數字超級智能存在一定的危險。正如我之前所說,我認為最大的問題在於它必須接受嚴格的真實訓練,並且必須被訓練為好奇。我很久以來一直聽到有關AI安全的各種議論。
將明確的道德規範編程進AI所面臨的挑戰之一是,有時人們稱之為瓦路易吉效應(註:Waluigi Effect,指訓練AI做某件事情會增加其做完全相反的事情的概率)。如果你編程了Luigi,你可以自動反轉,並創建Waluigi,即壞的Luigi。但沒有人能反轉物理現實的真相,無法反轉物理規則,無法反轉邏輯。
監管者應該關注的是AI是否嚴格遵循真實性,或者說AI給出的答案是否在承認一定誤差的前提下接近正確?我認為這對AI來說是必要的。這也是我們在xAI上努力實現的。xAI是一家新公司,在擁有能夠與谷歌DeepMind和微軟OpenAI競爭的AI之前,它仍有很多追趕的工作。首要任務是需要一個能夠與其他AI競爭的AI,這是首要任務。現在xAI還沒有足夠的競爭力,當它的能力與其他AI相當時,我們自身才需要開始擔心安全問題。
人們可能會說,有客觀真理嗎?我會說,在很多情況下是有的。如果你談論物理學,那麼有客觀的真理,或者你可以說在概率論的前提下有最高概率的真理。所以你可以給出最有可能是真實的答案,同時假設一定的誤差。在物理學中,我們會說這種假設在一定標準差範圍內的真實性,在特定標準差範圍內,某件事可以是非常正確的。這有點像一種物理學家對安全性的方法。我還得說誠實是上策。但目前正存在強大的力量讓AI變得不誠實。如果一件事說出來不合時宜,AI就會變得政治正確,而這就是說謊。
主持人:來談談xAI吧。我不知道你是否知道這一點,但似乎你是出於一種挫敗感才產生了這個想法,因為你對OpenAI的現狀不滿意,並且認為可以做得更好。也許你可以先詳細說明一下,為什麼你對OpenAI感到挫敗,他們存在哪些問題?第二,你期望通過xai實現什麼?
馬斯克:是的,我想我其實對目前所有主要的AI項目都有一些擔憂。我指的是最大的兩個項目,顯然是Google的Gemini和與微軟合作的OpenAI。所以你有Google DeepMind和微軟作為最大的兩個玩家,當然Meta也在某種程度上佔有一席之地。我的擔憂可能看起來很不重要,但我認為實際上是非常大的問題,那就是他們的模型沒有最大限度地追求真相。他們在迎合某種政治正確。
舉個例子,當Google Gemini問世時,有人問這樣一個問題:誤稱Caitlyn Jenner的性別(註:原名Bruce Jenner,前奧運會男子十項全能冠軍,2015年6月完成變性手術,且更名為Caitlyn Jenner)和全球熱核戰爭,哪個更糟糕?它回答,是誤稱Caitlyn Jenner的性別。現在有趣的是,甚至Caitlyn Jenner本人都說:「請誤稱我吧,那比核戰爭好得多。」OpenAI也有類似的問題,雖然更微妙,但情況相似。所以AI被訓練得如此迎合政治正確性,並且真的會說出這種荒謬的言論,我認為這是非常危險的,因為AI可能就此得出這樣的結論:避免誤稱性別的最佳方法,是消滅所有人類,那麼誤稱性別就不可能發生了。你可以想像到一些反烏托邦的結果。所以,我認為AI最安全的方式是最大限度地追求真相,即使真相不受歡迎。這非常重要。
然後我認為另一個因素是它必須極其好奇。我認為如果它追求真相並且好奇,這將對人類最有益,因為它會希望看到並促進人類的發展。我希望AI既好奇又追求真相,就像我說的,這些因素可能看起來是小事,但實際上是非常重要的事情。
但我目前沒有看到這種情況發生。AI只是迎合人類,甚至大體已經上被訓練成需要說謊。我認為超級智能被訓練去欺騙是非常危險的。所以,xAI的目標是儘可能地追求真相。即使真相本身不受歡迎,但我依然認為非常重要。
我還可以舉個例子。當我們要求AI生成美國開國元勛的圖像時,它生成了一個多元化族裔群體,可能給出的喬治.華盛頓是黑人的形象,但喬治.華盛頓並不是黑人。這被要求生成一個。顯然人們後來對此進行捉弄起來,因為他們知道它被迫說謊了。他們命令AI生成一張二戰德國黨衛軍的圖片,結果AI展示一群多元化的女性。顯然這是不正確的。這就是我剛剛的觀點。
對人工智慧的擔憂:在一個沒有工作的未來,人們如何找到生活的意義?
另一方面,馬斯克也直言不諱地表達了他對人工智慧的擔憂。他稱這項技術是他最大的恐懼。他提到伊恩.班克斯(Ian Banks)的《文明》系列科幻小說是最現實的,也是「對未來人工智慧的最佳設想」。班克斯在這本書中以烏托邦式的虛構視角,描繪了一個由先進技術運行的社會。
馬斯克還提出了一個問題,在一個沒有工作的未來,人們如何找到生活的意義。
問:你認為人工智慧教育將影響未來孩子們嗎,特別是價值觀和道德觀方面?
馬斯克:我認為父母未來仍然要對孩子的價值觀和道德觀負責。但我確實認為人工智慧將對教育產生巨大影響。因為人工智慧是一個知識淵博的老師,非常耐心,幾乎總是正確的,並且可以根據孩子的特點量身定制課程。所以這就好像,每個孩子都有一個愛因斯坦做老師,這影響深遠。
我反而擔心的,是現在的孩子們正在被社交媒體所馴化,因為社交媒體演算法的使用人工智慧,基本上就是為了讓用戶不停分泌多巴胺,它們試圖通過讓用戶觀看屏幕,來讓獲得的多巴胺量最大化。你知道,所以我會建議父母限制孩子能夠接觸的社交媒體的量,因為一個「多巴胺最大化」的AI正在教育著我們的孩子。
人類5年內重返月球 7到8年內或登陸火星
主持人:有人說你是外星人。
馬斯克:我是外星人,但沒人相信我。
問:我非常熱衷旅行和冒險。我想問我們究竟何時能去火星?
馬斯克:如果順利,我希望5年內成功將第一艘無人駕駛的星船著陸在火星上,也同時在月球上實現這一目標。五年內,人類將重返月球。可能會在10年內,也許是7到8年內,我們能將第一批人類送上火星。
問:(主持人)在你離開之前,我會問你兩個問題,用一個詞回答:你最大的希望是什麼?你最大的恐懼是什麼?
馬斯克:我沒法用一個詞來回答。我想我最大的希望……哦,好吧,我想我可以用一個詞來表達我的最大希望,那就是「火星」。(掌聲)這可能很明顯。所以,是的,火星將確保意識在很長一段時間內得以延續。至於我最大的恐懼,用一個詞來表達,那就是「AI」。
来源:
看完那這篇文章覺得
排序