圖為2024年4月3日,以色列和巴勒斯坦哈馬斯武裝組織之間持續發生的衝突中,以軍撤出兩天后,加沙被毀的Al-Shifa醫院遭到的破壞。(圖片來源:AFP via Getty Images)
【看中國2024年4月5日訊】( 看中國記者楊天資編譯/綜合報導)英國《衛報》日前披露,以色列軍隊在攻擊加沙期間,大量採用名為「Lavender」的隱祕人工智能(AI)資料庫,在數周內將37000名加沙的巴勒斯坦人列作潛在攻擊目標。以軍官員更默許襲擊AI鎖定的目標時,可附帶殺害不限數量的平民,導致大量無辜巴人平民死於以軍襲擊中。
衛報:以軍運用AI配啞彈無差別殺平民 用Lavender編死亡名單「機器冷酷地完成任務」
英國《衛報》4月4日引述以色列情報來源透露,在加沙戰爭中使用了「薰衣草」( Lavender )人工智能(AI)系統,並聲稱獲得了殺害平民以追捕低級武裝分子的許可。
《衛報》引述巴勒斯坦雜誌「+972」報導,六名以軍情報官員證實,Lavender由以軍精銳情報部門「Unit 8200」研發,以色列當局透過大規模監視系統,收集加沙230萬巴人居民的個人信息,每名居民從最低1分到最高100分評分,分數愈高代表最有可能是「武裝分子」,可列入「襲擊名單」。
兩名以軍消息人士透露,利用Lavender鎖定目標後,以軍無需再經審核確認,便批准發動襲擊,以軍獲准每擊殺一名武裝分子,可附帶殺死「15至20名平民」,至於高級武裝分子的限額更是100名平民。然而在實際操作時,以軍高層實則默許士兵不受限制地殺害平民,包括使用非制導的彈藥「啞彈」,打擊目標所在的整座房屋。
還有知情人士稱,以軍高層傾向於當武裝分子身處民居時發動襲擊,「轟炸一個家庭住所,較攻擊軍事建築物容易得多。該系統(指Lavender)就是為了尋找它們(指民居)構建的。」
亦有情報官員形容,「『啞彈』意味攻擊整座房屋的人,但你不會在乎,只會立即轉向下一個目標。因為有這系統,攻擊目標永無止境。」
由一群巴勒斯坦和以色列記者經營的獨立網上雜誌《+972雜誌》和希伯來語媒體Local Call,訪問了6名以色列情報官的調查報導,指以軍一直使用名為Lavender的人工智能(AI)程式幫助識別加沙的轟炸目標。其中一名官員坦言僅是Lavender決策的「橡皮圖章」,只花短時間來審查建議。
另一名情報官員稱,在戰爭早期以色列軍官允許在清剿武裝分子時有巴勒斯坦平民被殺。惟以軍否認使用AI確認軍事目標,僅表示Lavender是用於相互參照情報來源的數據庫,AI是用於分析和核查用途。
報導披露出,Lavender由以軍精銳情報部門8200單位開發,該單位與美國的國家安全局(NSA)或英國的政府通訊總部(GCHQ)相當。Lavender曾在加沙使用大規模監控,生成一張包含37000個轟炸目標的清單,其中包括許多通常不會成為轟炸行動目標的低級別哈馬斯成員。戰爭爆發後幾周,以軍故意瞄準平民住宅,並使用Lavender識別暗殺目標,導致了大量轟炸。
一名情報官員表示,相對於士兵的判斷,軍方對「統計機制」更有信心。「在那裏的每個人,包括我,在10月7日都失去了親朋戚友。機器冷酷地做到了這一點(決定暗殺目標)。這讓事情變得更容易」。
「薰衣草」( Lavender )是由以色列國防軍的精銳情報部門Unit 8200開發的,該部門相當於美國的國家安全局或英國的GCHQ。
以軍殺哈馬斯高層允許逾百平民「陪葬」
以色列情報官員談及針對低階哈馬斯和「巴勒斯坦伊斯蘭聖戰組織」(PIJ)成員時,以軍會優先選擇趁他們晚上在家時下手,「我們對在軍事建築或從事軍事活動時殺死(哈馬斯)成員不感興趣。轟炸一個家庭的住宅要容易得多。這個系統就是設計來在這些情况下尋找他們的」。
英國《衛報》引述兩名消息人士表示,在戰爭最初幾周,他們獲准在對每名低階武裝分子的空襲中殺害15到20名平民。消息人士稱,對這類目標的攻擊通常使用非導引武器,摧毁整個家園,殺死同屋所有住客。
報導稱,以軍認為攻擊對高級哈馬斯成員時,殺死100多名平民是可以的。
根據專家說法,如果以色列一直使用非導引炸彈來夷平成千上萬由AI認定與武裝組織有關巴人的家園,那可能有助解釋戰爭中驚人的高死亡人數。
一名情報官員表示:「你不想把昂貴的炸彈浪費在不重要的人身上——這對國家來說非常昂貴,而且[這些炸彈]很短缺。」
另一位人士表示,他們面臨的主要問題是對平民的「附帶損害」是否允許發動攻擊。
「因為我們通常使用啞彈進行攻擊,這意味著將整個房子扔到裡面的人身上。 但即使攻擊被避免,你也不在乎——你會立即轉向下一個目標。 因為有系統,目標永無止境。 還有 36000 人在等待。」
軍事專家批評,如果以色列在人工智慧的幫助下使用啞彈夷平了數千名與加沙激進組織有聯繫的巴勒斯坦人的房屋,這可能有助於解釋戰爭中令人震驚的高死亡人數。
哈馬斯控制地區的衛生部表示,在過去6個月的衝突中,逾33000名巴人被殺,大部分是平民。
美國國防部前法律專家、現任非牟利組織「國際危機組織」的軍事分析師哈里森稱,「你不能針對特殊目標(指恐怖分子)設置『可以容忍的數字』,然後聲稱不論何時,這種附帶損傷(指殺害平民)都是合法的。」
機器定目標 士兵成按鍵「工具」
另一名使用Lavender的情報官員則質疑,人在選擇目標過程中的角色是否有意義,「在這個階段,我會為每個目標投放20秒,每天處理數十個。作為人類,除了按鍵批准,我沒有任何附加值。這節省很多時間」。
以色列國防軍在回應《衛報》的聲明中,否認使用AI確認軍事攻擊目標,並表示Lavender是用於相互參照情報來源的數據庫,以便產生有關恐怖組織軍事行動人員的最新信息,「以色列國防軍並不會使用人工智能系統來識別恐怖分子行動人員或試圖預測某人是否為恐怖分子。信息系統僅僅是在目標識別過程中供分析師使用的工具」。
《衛報》英文報導原文:‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets
来源:
看完那這篇文章覺得
排序