
圖為2026年1月22日首爾的圖片展示韓國生成式人工智慧服務公司Carat及其網頁上產生的AI圖像。(圖片來源:Jung Yeon-je / AFP via Getty Images)
【看中國2026年1月25日訊】人工智慧(AI)生成影片日益增加,不僅常被用於偽冒名人詐騙,近期也出現虛擬醫師散布不實訊息。資安院研究員戴毓辰指出,AI假影片可分為名人換臉色情片、偽冒名人詐騙、AI虛擬化身內容農場及搬運Sora影片等4大情境,民眾可透過留意AI生成標註、以圖搜圖、影片情境合理性等方式初步檢核。
隨著AI技術快速發展,網路上流傳愈來愈多假影片。戴毓辰直言,「只要有利可圖的地方,就會有AI假影片」,AI技術已能進行換臉、嘴唇同步,也可生成全由AI產製的影片,如「一張照片就能開講」,僅需一張人物照片與一段聲音,AI就能自動算出說話時應有的肌肉抽動等,生成一段人物說話的影片。
戴毓辰分析,依團隊觀察,目前常見的AI假影片情境可分為4大類,第1類為最早出現的名人換臉色情片,也就是利用AI深度偽造技術(Deepfake),將公眾人物的臉部影像移花接木,合成至其他影片。
第2類為偽冒名人詐騙,戴毓辰指出,不法人士常冒用財經專家、權威醫師等影像,利用AI做精細的「對嘴」處理,假冒成本人推薦投資或販售藥品,誘使民眾加入投資群組或購買產品。
第3類為AI虛擬化身(AI Avatar)內容農場,如YouTube頻道「陳志明醫師」,經查現實中根本不存在此人。戴毓辰說,傳統內容農場以大量文章為主,現在改用AI自動化工廠,利用AI生成不存在的虛擬分身,扮演主持人或專家。由於只要有文案就能自動化產出影片,發布頻率極高,內容多涉及健康、理財或長者福利等議題。
戴毓辰解析,AI生成的虛擬化身影片長度僅短短幾秒,經由無縫循環播放,可消除影片截斷感,構成數分鐘影片,「虛擬化身看似動作自然,其實某些手勢每隔一段時間就會重複出現」。
第4類為搬運Sora影片,戴毓辰指出,社群平台上常見內容誇大的短影音,如切貓咪蛋糕,貓咪嚇到跳起來,這些多數搬運自專門生成AI影片的創作應用程式Sora。他說,這些影片原本帶有浮水印,但搬運者常以遮蔽或裁切方式去除,再發布至各大社群平台。民眾可留意影片角落是否模糊、物品上字體是否正確等,初判影片是否為AI生成。
面對愈來愈逼真的AI假影片,戴毓辰建議民眾以3種方式判斷,首先是留意AI生成標註,目前多個社群平台已要求創作者標記AI生成內容,如YouTube引入AI內容揭露標籤,民眾點擊影片說明「更多內容」,可看到「變造或合成的內容」、「聲音或影像經過大幅編輯或為數位生成」等提醒。
其次是以圖搜圖查證,戴毓辰說,「這比較有辦法找到破案的線索」,將影片截圖並以圖搜圖,可確認影片中人物是否真實存在,或找出影片相關片段,核實當事人是否曾有相同發言,如將AI假醫師「陳志明醫師」以圖搜圖後,無法查出醫師的背景資訊,只找到多部YouTube影片,當來源都是同一個,就應該存疑。
再者,觀察影片中人、事、時、地、物等情境及細節是否合理。資安院研究員龎在偉指出,「AI假影片通常會有人、事、時、地、物不一致的地方,才需要造假」,如新聞主播播報新聞的片段被偽造為藥品宣傳,便是不合理的情境。另外,他補充,AI目前仍無法完美生成直線,因此可以放大字體,查看線條是否有凹凸之處。
戴毓辰進一步提供可觀察的細節,可從人物、環境及系統層面檢視,在人物層面,包含人物五官是否不自然、是否不自然眨眼或幾乎不眨眼、牙齒或手指是否糊在一起、輪廓是否乾淨毛邊,以及表情與語調是否匹配。
在環境及系統層面,可留意語音與字幕是否一致、光線或陰影是否合理、人物綠光反射、文字錯誤、空間構造錯誤、不合理的運鏡、低解析度壓縮痕跡、出現匪夷所思的物品、畫面是否不自然變換或延遲、快速移動的破綻、影子動態延遲等。
戴毓辰表示,當AI技術愈來愈進步,可觀察的破綻勢必愈來愈少,不過,民眾多一分懷疑,養成檢視AI生成標註、以圖搜圖、影片情境合理性等查核習慣,就能大幅降低受騙風險。
看完那這篇文章覺得

























排序