全球人工智能市場迅速增長,但世界各地政府卻沒有盲目地全面接受,部分對人工智能應用的負面影響憂心忡忡。以歐洲為例,歐盟委員會於今年4月公布一份人工智能監管草案,建議禁止大規模監控及基於人工智能的社會信用系統。
草案的基本原則,是數據擁有者的權利必須得到合理合法保障。大數據分析是人工智能的促成技術,其效能與背後的數據息息相關。
歐盟規範人工智能應用原則
歐盟了解到在數據分析者一廂情願之下(尤其是在商業應用方面),他們會有意或無意地侵犯了數據擁有者的權利。因此,歐盟於2016年推出《一般數據保護條例》(GDPR),目的是保護歐盟個人數據,包括擁有者的私隱權、知情權、問責權、删除權等。
再者,條例更適用於全球,可以監管歐盟境外第三方對個人數據的處理操守。所以,人工智能草案與GDPR掛鈎,對國際人工智能的商務發展,將會影響深遠。
另外,草案提出人工智能使用的大原則,目的是禁止開發極高風險的人工智能應用,包括:
一、禁止利用人工智能技術在不知不覺中操控人類意識,代替用戶作決定或扭曲其行為,繼而對他造成身體或心理的傷害。類似應用在今天虛擬世界如雨後春筍般出現,例如不良社交媒體利用虛假或極端主義訊息,進行自動推薦,誘導客戶作非自願的決定。
二、利用兒童或殘疾人士的脆弱性進行誤導,對他們造成傷害。這原則與歐盟一貫對弱勢社群的重視和保護政策同出一轍。
三、推行社會信用體制。歐盟委員會認為,若然人工智能系統根據人的社會行為或人格等特徵,進行用戶信用評估的話,會造成不可預見的後果,導致個人或特定群體的權益受到損害。現實中不同的社會文化會產生不同的算法偏見,這將直接對信用評估產生影響。這樣的社會信用體系,侵蝕社會公平公正基本原則,因此草案提出禁止乃是理所當然。
保障大眾利益,平衡社會道德
歐盟委員會續指,高風險的社會信用評估應用場景,主要集中在社會保障、就業和教育等與生活息息相關的領域。在就業方面,利用人工智能算法對工作人員進行評估或監測,屬於高風險行為,因為算法可以左右員工的職業前景和生計。與此同時,由於算法有機會存有偏見,因此人工智能會對婦女、殘疾人士或長者在工作上產生歧視,令個人的隱私權受到威脅。
在教育方面,利用算法進行招生錄取、評估學生水平等同樣存在高風險,這做法很可能會影響被評者一生受教育的機會,還會產生社會固化的問題。在社會保障系統方面,人工智能參與決策過程將對民生產生重大影響,例如利用人工智能去分析某申請人,來決定他是否能獲得銀行貸款、財政補助、保障性住房、電力電信等基本服務,但由於種族、殘疾、年齡、性取向等各種因素,算法很可能延續社會存在的歧視,使弱勢社群問題日益惡化。
人工智能是香港政府創科發展的四大領域之一,政府亦計劃檢視現行法例和法規,筆者認為歐盟的人工智能監管草案值得政府參考。然而,香港是一個國際經濟大都會,工商業界在人工智能法律的草擬過程中,必然有相當多的要求,他們會盡力爭取最大的個人經濟利益,為此輕視社會道德。因此,政府要保障大眾的利益,以及平衡社會道德,將會面對重重挑戰。
原刊於《星島日報》,本社獲作者授權轉載。