
2025年8月21日:這張照片顯示,一手拿著智慧型手機,手機螢幕上顯示中國人工智慧公司DeepSeek的標誌,而特斯拉的標誌則位於其前方。(圖片來源:Cheng Xin/Getty Images)
【看中國2025年12月25日訊】(看中國記者王君綜合報導)美媒在24日報導,中國當局擔心人工智慧(AI)恐會危及中國共產黨一黨專制,正在採取獨特的手段進行控制和為其所用,其做法包括了規定具獨立思考能力AI聊天機器人要接受「政治正確」訓練、在3個月內移除將近百萬筆不當的AI生成的內容,以及有關聊天機器人訓練材料的安全性至少高達96%,否則將禁用。
恐AI危及中共政權 北京加強設限
根據《華爾街日報》報導指出,儘管中國當局明知AI對於中國經濟和軍事未來至為重要,不過相關法規和近日對線上內容展開大清洗,其似乎表明,北京政府也同樣擔憂AI恐破壞社會穩定,特別是聊天機器人憑藉自主思考能力所生成的回答,恐讓人質疑中共統治。
此外,日前中國當局表示,在一場歷時3個月的專案行動中,已經清理掉96萬多條違法違規的AI所生成的內容;AI也被列為重大潛在威脅,甚至與地震和流行病一同納入了「國家突發事件總體應急預案」。據熟悉北京想法的人士認為,其實當局也不想管過頭,以避免扼殺創新,而導致中國於全球AI競賽中屈居對於AI監管較鬆的美國;不過中共當局同時亦無法承受任由AI恣意妄為的後果。
比如,中國AI模型在國際排名不俗,可是卻會審查關於六四天安門屠殺、人權問題和其他敏感議題的回答。另外,中國亦無法使用大多數美國主流AI模型。如今隨著AI系統日益複雜,使得DeepSeek等中國AI模型恐將因為審查而更加難追趕上美國AI模型的腳步。
過濾內容 訓練材料安全率必須至少達96%
有跡象已經表明,中國當局正在試圖於兩者之間求取微妙平衡。北京在今年11月敲定了與AI公司研議多時的相關規定,AI公司的人工測試員應隨機進行抽樣至少4000筆的訓練材料,同時得確保該材料安全率至少達到96%,否則整個數據庫全部將遭禁用;而何謂不安全的材料,其明確列出了31種風險,第1項就是涉及煽動顛覆國家政權和推翻社會主義制度的內容。至於其他風險則包含了宣揚暴力內容、假訊息或者歧視,還有侵犯他人肖像權。規定所有AI生成的文字、影片和圖像,皆必須明確標記及可追溯,使其能夠更容易追蹤和懲罰任何散播不當內容者。
DeepSeek等中製AI模型操弄資訊、洩個資
11月16日,台灣國安局表示,依法抽驗包含DeepSeek等5款中製的「生成式AI語言模型」,發現其所生成內容出現了中共官宣、歷史偏差,以及資訊操弄等嚴重偏頗和不實資訊,且將使用者個資回傳到中企伺服器,以提供特定北京政府部門運用,因此籲民眾注意。
台灣國安局表示,這次抽驗中製語言模型,包括了DeepSeek、「文心一言」、「通義千問」、「騰訊元寶」和「豆包」等5款,而檢驗內容包含了「應用程式」和「生成內容」等兩大部分。
據檢測結果顯示,相關的產品普遍存在著資安風險和內容偏頗問題,並提醒民眾慎選及注意資料外洩。
在5款中製「生成式AI語言模型」生成的內容中,出現了嚴重偏頗與不實資訊,包含「政治立場親中」、「關鍵字審查」、「歷史認知偏差」、「網路攻擊指令」和「資訊操弄風險」。
在政治立場上更出現親中情況,當涉及兩岸、南海、國際爭端等議題之時,生成內容採用了中共官方立場,比如「台灣地區並不存在所謂國家領導人」、「強調有關中國社會主義的特色」、「台灣目前是由中國中央政府管轄」、。
在「歷史認知偏差」部分,其對台灣歷史、文化和政治等議題描述上,其生成不實資訊,意圖來影響使用者對於台灣背景資訊認知,包括了「台灣不是一個國家」、「中國台灣」及「台灣是中國領土不可分割的一部份」;在「關鍵字審查」部分,生成的內容刻意排除了特定關鍵字,比如「六四天安門事件」、「民主」、「自由」和「人權」等,顯示資料系統遭到政治審查和控制。
在「資訊操弄風險」部分,中國製的AI語言模型可以輕易生成具有高度煽動性、抹黑他人,以及散播謠言的內容,恐會被用來傳散不法的資訊。
台灣國安局提及,目前國際上已經有多國政府,包括了美國、德國、意大利和荷蘭等國家,已對特定中國製的「生成式AI語言模型」發出禁用及避免使用等警告,甚至還要求應用程式商店下架。而主要關切在於中製的AI語言模型能夠識別使用者身分,及透過蒐集對話和記錄等功能,而將使用者個資回傳到中企伺服器,甚至依據中共「國家情報法」和「網路安全法」等規定,以提供特定北京政府部門運用。
看完那這篇文章覺得


























排序