content

人工智慧造假利器 中國對臺認知作戰3.0悄然開打?(圖)

 2023-10-09 09:22 桌面版 简体 打賞 3
    小字

觀察人士說,中國善用圖文變造、人名、時間和地點張冠李戴的造假伎倆,來影響臺灣人心和選情。
觀察人士說,中國善用圖文變造、人名、時間和地點張冠李戴的造假伎倆,來影響臺灣人心和選情。(圖片來源:網路)

【看中國2023年10月9日訊】臺灣總統大選選情逐漸升溫,網路社媒開始流傳有關政治人物的變造圖文資料,其中不乏企圖影響臺灣對中國認知的內容。

觀察人士說,中國對臺認知戰現階段所使用的造假訊息仍嫌粗糙,易被識破,但未來若大量運用生成式人工智慧來製造擬真的圖文內容,升級對臺網攻,恐嚴重衝擊臺灣選情,甚或引發民眾的資訊和政治冷感。

臺灣一向是中國認知作戰的主戰場,網路社媒頻傳「說好中國故事」的造假信息,而近期隨著臺灣總統選情增溫,有關政治人物的變造圖文也頻頻現跡。

臺灣網路頻傳造假圖文和影像

例如,臺灣事實查核中心10月6日破解一則名為「看看中國是怎麼花錢救火的,而我們把錢又花在哪裡了」的網傳影片,據該中心的調查,這則影片用中國陝西省7月份的無人機消防演練充當實際救災現場,來誤導中國救災技術比臺灣先進的不實信息。

又例如,該中心10月2日也破解一則題為「綠營政治人物中文水準低下......蔡英文用白色輓聯祝賀表姐高升」的變造影像,該中心調查發現,臺灣總統蔡英文2015年手端湯圓碗的舊照被修圖為手持輓聯,且6年來數度在網上熱傳,混淆視聽。

觀察人士說,中國善用圖文變造、人名、時間和地點張冠李戴的造假伎倆,來影響臺灣人心和選情,但這類技術目前仍嫌粗糙,並不難破解。

位於臺北的國防安全研究院國家安全所所長瀋明室分析,中共的認知作戰多透過內容農場量產,內容可信度並不佳,不過,隨著生成式人工智慧(GAI)的技術日益成熟,他警告,未來中國若利用此造假利器大量生成擬真圖文,並將對臺網攻升級至3.0版,其以假亂真、混淆視聽的殺傷力恐驚人。

瀋明室告訴美國之音:「內容農場剛開始發生的時候,其實是很粗糙,它可能發布在Line或者是微信這些網路社群的媒體裡面。因為它非常粗糙,所以很容易就發現。但是如果說它應用了生成式AI技術,它就可以在內容農場那一端,經過不斷的修正、不斷地餵食(機器深度學習)之後,讓內容農場產生出看起來更真實的訊息,這樣的話,它可能造成的影響非常大。」

GAI採機器深度學習模型,生成與原始資料雷同的新數據,可用於創造性的工作,如圖文、視頻和音樂的生成等,其中,最常見的應用範例,如ChatGPT可產制文字作品、Midjourney可產製圖片。

也就是說,若透過機器學習中國國家主席習近平喜怒哀樂的各式表情或坐臥仰躺的各種姿勢,計算機恐可自動生成習近平翩翩起舞的擬真影片,也因此,GAI科技被視為認知作戰產制假訊息的最佳利器,尤其目前尚未發展出可辨識GAI擬真內容的技術,無法仿照過去,透過「機器人」賬號所發布的類似敘事、圖片或影片,來自動過濾出擬真圖文或影像,並加以破解。

GAI資訊操弄最新利器

位於臺北的臺灣民主實驗室前副執行長曾柏瑜表示,早期「機器人帳號」散佈的假訊息,雖影響範圍廣,但影響力低,因為很容易被一眼識破。

她說,中國過去創建假賬號時,多使用西方免版權照片資料庫,再變造成亞洲人臉孔,作為假賬號的頭像。但透過GAI技術生成的圖像無法以肉眼判斷為真人照片,將徒增查核假賬號的難度,尤其大量生成真偽難辨的訊息,擴散快,影響力也深。

以社群平臺Getter今年3月流傳的一則美國微軟創辦人比爾.蓋茲(Bill Gates)受訪影片為例,在這則臺灣社群也廣為轉傳的影片中,蓋茲遭澳媒主持人質疑竊取他人電腦技術及COVID-19疫苗造成大量副作用、死亡時,僅尷尬以對,但經當事人澄清後,已確認是捏造影片。

據AI影像技術專家、位於臺南的成大統計系教授許志仲分析,該影片捏造兩人聲音,並以深偽(deepfake)技術變造他們臉部的嘴形區域,若運用GAI技術,全影片擬真的造假效果將更高。不過,他說,GAI技術目前較少用來搭配深偽技術,較常搭配人臉偵測、人臉貼換、物件擦除、修補技術來進行換臉或內容的變照,但都會耗費產制者較多時間,成本較高。

許志仲告訴美國之音:「大家也意識到,這些(技術)結合在一起,會做出一些不好的事。不同的變造方法都有不同的對應技術去偵測,深偽的偵測器不能拿來偵測現在的GAI。」

在此前提下,他說,或可從人眼、背景文字或物品等連續性細節來辨別GAI圖片,不過,高明的產制者也會刻意增加雜訊或壓縮檔案等,來降低被破解的機率。

曾柏瑜也說,深偽影片技術成本高、效益低,還在測試階段,目前尚未有大量影響力深或流傳廣的造假影片,但利用GAI造假文字、擬真假賬號已越來越多。

GAI偵測技術尚待開發

位於臺北的臺灣資訊環境研究中心共同主持人游知澔也形容,GAI猶如產制內容的「小幫手」,技術早已存在,大型機構或國家也早投入資金產制內容,但麻煩的是,GAI技術漸普及,進入門檻和操作成本大幅降低,無法驗證或追查、「不受金錢或合約操控的志願行為者」增多,這將是認知作戰研究者的痛點,也恐引髮網民的反感和不信任。

游知澔告訴美國之音:「各式各樣的人都更容易使用(GAI技術),那這個資訊環境對一般民眾來說,可能是更混沌不清或是更令人厭煩,這可能會造成的後果就是大家更不想在網路上,參與公共事務的討論。」

他還說,目前大規模偵測GAI內容的可靠技術尚待開發,雖然不排除市面上已有實驗性科技。

曾柏瑜也說,技術工具或許存在,但能否100%判斷真偽則是令人存疑的,因為關鍵在「抓不抓得到」,很多大學教授都感嘆,現在很難辨識學生作業到底是自己寫的還是AI寫的。

曾柏瑜告訴美國之音:「八成以上的人都認為,假訊息影響嚴重,可是要判斷什麼是真的、什麼是假的已經很困難了,(未來若)還要判斷講這些話的人是真的人、還是假的人,這個難度會越來越提升。(若)大家就放棄所有在網路上看到的訊息,再也不相信任何人說的任何話,那他對政治的冷落度就會提升,會讓民主慢慢走向一個低討論度、低監督的狀態。」

她說,這或許是臺灣今年的總統大選選情至今仍比往年冷的背後原因之一,不過,她警告,GAI確實能提高認知作戰的主動性。

中共認知戰新型態:小平臺、多語種

Meta(原臉書)8月底發布的第二季《對抗威脅報告》和微軟威脅分析中心(MTAC)9月初發布的《東亞數字威脅報告》也得出三點類似的結論:一、用生成式人工智慧產制高品質的視覺內容可有效擴大社媒的影響力。二、信息操弄內容已擴展至新的小平臺或論壇。三、內容已譯成至少7種語言,擴大認知作戰的觸及範圍。

微軟報告特別指出,臺灣是中國認知戰的主要目標,中國除在臉書散播以AI生成台語影片「呼籲臺灣政府向北京投降」對臺進行認知作戰外,也持續對東亞國家進行網路攻擊和認知作戰。報告引述近一年的數據稱,中國利用GAI創造高質量的視頻內容吸引到至少40語種的目標受眾,人數超過1.03億。

操縱輿論GAI恐掀國安危機

美國智庫蘭德(RAND Corporation)9月發布《生成式人工智慧和社群媒體操縱3.0的興起》報告時也警告,GAI的普及可能引發國家安全問題,尤其社媒可能已遭中共解放軍所濫用。習近平也已將人工智慧作為中共操弄外國輿論的利器,儘管中國的GAI能力仍落後美國,但已大量在新聞採編和發布上應用人工智慧,提高輿論引導能力。

臺灣一向對中國的資訊操弄,保持高度的警覺。

臺灣資訊環境研究中心的游知澔表示,臺灣今年初出現的「五缺」民生爭議:缺蛋、缺水、缺藥、缺電、缺肉,就是中國議題設定的結果。另外,臺灣總統蔡英文4月初在美國進行的轉機外交、美國對臺軍購和美國政要訪臺等議題,也都有中共介入、操弄和傳播假信息的痕跡。

GAI投入認知作戰恐衝擊臺灣選情?

隨著2024年臺灣總統選舉的逼近,游知澔警告,來自境外的信息操弄恐影響選舉結果、臺灣的民主自決過程、甚至民眾網上參與公共議題討論的熱衷度。因此,提升個人的資訊識讀能力及資訊揭露的透明度,才能讓公眾對信息操弄具有免疫力。

不過,一位不願透露全名的林姓臺北選民告訴美國之音,長期關注政治的選民會自行過濾資訊,就算無法辨識AI產制的內容,政治立場也很難受到影響,假訊息只能動搖到中間選民。

國安專家瀋明室也說,臺灣面對中共統戰、認知戰或假訊息,經驗豐富,民眾多能處變不驚。但他呼籲,政府部門強化整合,建立虛假訊息的因應程序,如保存原始資訊、聯繫警政,並與調查單位和國安局聯合溯源,若源頭來自中國政府,臺灣就該啟動反制,包含打擊源頭、阻斷假信息的傳播,並由政府發言人、民間事實查核中心或媒體盡速澄清事實。

(文章僅代表作者個人立場和觀點)
来源:美國之音 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意