巴以衝突中以軍頻頻利用高科技,例如利用人工智能,進行對象識別,以加強目標襲擊的精準度。以色列軍隊公開承認,他們擁有一套命名為「薰衣草」(Lavender)的人工智能系統,並多次應用在加沙殲滅哈馬斯行動中,幫助以軍識別襲擊目標。但有專家指出,「薰衣草」的識別準確度只得九成,因此在實際應用時,司令官會就系統輸出的結果(即人工智能分析所推薦的襲擊目標)作出最終判斷,才下命令進行襲擊。但據報道,這些官員並沒有接受過有關的訓練,更有傳言在某次識別目標行動中,人工監督時間不到20秒鐘,決定馬虎草率。所以,他們曾多次作出誤判,造成不少無辜的巴勒斯坦平民死傷。
以色列軍隊明知故犯
事實上,全球科學界都強調先進科技(諸如人工智能)不容許用作武器害人用途,但以色列軍隊卻明知故犯,在巴以衝突中濫殺無辜,死傷人數之多已基乎無法計算。因此,以色列的人工智能殺戮行為惹來世界各地科學界的嚴重譴責。
「遠在天邊,近在眼前」,近日人道主義救援組織「世界中央廚房」(WCK)車隊在加沙地區提供人道糧食援助服務時遇到以軍空襲,造成7名志願工作者喪生的慘劇。
以色列軍隊公開承認責任,解釋是他們錯誤識別襲擊目標而致。有專家猜測導致事故發生的主要原因是以軍過分依賴人工智能分析結果,以致犯下滔天大禍;也有些專家認為此事件是人為錯誤,他們指出,救援車輛上的「世界中央廚房」標誌非常明顯,分別在車頂、車頭蓋、車身等醒目位置,再者車隊中的三輛車之間距離甚遠,絕不難以識別,因此以軍實在難辭其咎。
雖然以色列總理內塔尼亞胡(Benjamin Netanyahu)馬上辭退相關軍官,但做法仍然於事無補。筆者認為以色列政府真正急需要的是徹底反省及檢討他們的科技武器政策,例如「薰衣草」系統的可靠程度,以及使用人工智能相關武器的嚴格守則。
「世界中央廚房」被誤襲事件奪去7位無辜者的寶貴生命,包括3位英國、1位美國加拿大雙籍、1位波蘭和1位澳洲救援人員,以及1位巴勒斯坦司機,內塔尼亞胡總理公開認錯並向死者家屬及其國家致歉。人道主義救援工作神聖至上,參與人員置個人生死於度外冒險執行人道主義任務,令人敬佩,所以以總理因以軍誤殺而公開致歉理所當然。
但是同樣是奮不顧身的救援者,加沙的醫生、護士等,他們在以軍襲擊區內醫院時被誤殺,以色列卻一言不發,甚至認為在戰爭的環境之下死傷是難以避免的,毫無悔意。這樣的態度確實難以服眾,難道生命是有貴賤之分的嗎?是否「世界中央廚房」死者是白人所以獲得尊重?而巴人卻是賤命如泥?唉!究竟在巴以衝突中,以色列政府眼中的巴人生命何價呢?
古特雷斯表嚴重關切
就以軍在加沙襲擊中使用人工智能技術,聯合國秘書長古特雷斯(Antonio Guterres)表示嚴重關切,尤其是對在加沙人口稠密的住宅區中開展的人工智能軍事行動會造成大量平民傷亡的潛在危機,深感不安。
他強調,任何影響生死決定的軍事任務都不應該交由演算法冷冰冰的人工智能來處理。秘書長所言甚是,唯內塔尼亞胡總理依然故我,置之不理,更不惜利用任何方法(包括人工智能)濫殺無辜,誓要全軍殲滅哈馬斯組織才肯擺休。
最後,筆者於上星期(4月6日)獲「啟新書院」(Renaissance College)邀請,參加由一班不同本地國際學校學生籌辦的「模擬聯合國會議(Model United Nations Conference」活動,並作主講嘉賓。筆者以巴以衝突作討論背景,首先引用了上述古特雷斯秘書長的說話,然後提出在「世界中央廚房」空襲事件中,潛在的人工智能武器及生命貴賤的問題,讓學生們在會後可自發深入延續擴展探討。巴以人道主義問題引發世界各國及地區關注,筆者希望學生們在日常學習之餘,多了解時事,不斷多為正義發聲,打抱不平。
原刊於《星島日報》,本社獲作者授權轉載。
!doctype>