AI偏見影響大  窒礙應用可靠性

AI偏見無處不在,也亟待得到有效的治理。就此,世界各地官、產、學、研等各界别都積極探索消除AI偏見的技術及途徑,部分組織已取得了一些成果。

隨着人工智能全球普及化,其技術所帶出的隱私、公平性、安全性,以及國際競爭等的潛在影響不斷浮現,而且日益嚴重。面對這非常複雜的問題,各國政府都不敢掉以輕心,紛紛加大力度監管人工智能應用的發展。

AI偏見  無處不在

根據哈佛商學院和埃森哲公司(Accenture)去年發表的研究報告,在美國每年求職者人數急劇增長,因此多達75%的僱主公司使用人工智能技術,例如利用光學文字識别技術(OCR)來掃描求職者的簡歷,然後進行自動分析,從中挑選出合適的候選人。在這操作中,應徵者的履歷被人工智能的自動化決策技術評核及篩選。

報告顯示,這些人工智能簡歷分析工具大多只看重簡歷的形式內容(如證件資格),而非應聘者所能帶來的實際價值。因此,它把許多潛在的合適人選拒之門外。其中,包括殘疾、有案底、同性戀、有宗教信仰等具有特殊經歷的求職人士,便難免會受到人工智能技術不同程度的歧視和排斥。由此可見,「AI偏見」無處不在,也亟待得到有效的治理。就此,世界各地官、產、學、研等各界别都積極探索消除AI偏見的技術及途徑,部分組織已取得了一些成果如下:

有公司利用光學文字識别技術(OCR)來掃描求職者的簡歷,然後進行自動分析。(Shutterstock)
有公司利用光學文字識别技術(OCR)來掃描求職者的簡歷,然後進行自動分析。(Shutterstock)

歐盟中國皆嚴管AI應用

美國國家標准技術研究所於去年7月提出制定《人工智能風險管理框架》(Artificial Intelligence Risk Management Framework),並徵詢各界意見。《框架》旨在幫助人工智能的設計者、開發者、使用者以及評估者更嚴緊地管理人工智能系統的生命周期,特别是當中可能出現的風險。企業可跟據《框架》設計、開發可靠(reliable)、可負責(responsible)的人工智能理應用系統。

機器學習是人工智能的核心技術。基於風險類別,歐盟推出一套機器學習法例,禁上或限制其應用。例如,實時人臉識別、社會信用系統等被禁止;對於重要基礎設施的控制、執法協助及生物識別技術等應用方向則需要提交詳細的說明文件,證明其人工智能方案安全可靠,並持續接受人工監督。

中國互聯網監管機構則將強制對可能破壞社會風氣、公共秩序的人工智能系統與推薦算法,進行嚴厲監督。打擊的目標包括傳播虛假信息、引導成癮行為及危害國家安全的各類應用。企業在部署任何可能左右公眾情緒的算法之前必須獲得批准,違規的算法一律禁止上線。

歐盟推出一套機器學習法例,禁上或限制其應用。(Pixabay)
歐盟推出一套機器學習法例,禁上或限制其應用。(Pixabay)

確定人工智能道德原則

聯合國民權高級專員呼籲各成員國暫停人工智能的某些用途,包括可能侵犯人權、限制民眾獲取基本服務,以及濫用私人數據等應用。

香港個人資料私隱專員公署於去年8月發出《開發及使用人工智能道德標準指引》,以協助機構在開發及使用人工智能時,能明白及遵從《個人資料(私隱)條例》的相關規定。根據國際標準,《指引》列出針對「問責」、「人為監督」、「透明度與可解釋性」、「數據私隱」、「公平」、「有益的人工智能」、「可靠、穩健及安全」的七項人工智能的道德原則。

同時,《指引》提供一套按照一般業務程序而撰寫的實務指引,協助機構管理其人工智能系統,指引覆蓋的範疇包括:「制定人工智能策略及管治架構」;「進行風險評估及人為監督」;「開發人工智能模型及管理整體人工智能系統」及「促進與持份者的溝通及交流」。

最後,健康地發展和使用人工智能技術對香港創科發展非常關鍵,助力促進香港發展成為大灣區的國際創科中心。因此,筆者建議業界在研發人工智能系統時,必須嚴守規矩,遵從私隱公署的《指引》。

原刊於《星島日報》,本社獲作者授權轉載。

黃錦輝