人工智能(AI)的應用逐漸形成趨勢。根據香港生產力局數據,近一半香港機構表示正在或將會應用人工智能,而麥肯錫(McKinsey & Company)的調研則發現全球72%的組織已經在至少一個業務功能上採用了生成式人工智能(GenAI)。受訪機構企業採用人工智能的主要顧慮,排首二位的就是個人私隱(43%)和監管規範(42%)。
為了應對個人資料私隱和管治等問題,世界各地正制定不同的措施以作應對。國家內地中央網信辦已於2023年10月發布的《全球人工智能治理倡議》(下稱《治理倡議》),以回應業界顧慮。上周,香港個人資料私隱專員公署(公署)亦發布《人工智能(AI):個人資料保障模範框架》(下稱《框架》),提供國際認可及切實可行的建議和最佳實踐,以協助機構在採購、實施及使用人工智能,包括生成式人工智能時,遵從《個人資料(私隱)條例》的相關規定,確保機構在善用AI之餘,亦保障個人資料私隱。
《框架》的實施
《框架》就四個範疇提出建議措施,包括:一、制定AI策略及管治架構;二、進行風險評估及人為監督;三、實行AI模型的定製與AI系統的實施及管理;及四、促進與持份者的溝通及交流;並就每個範疇均訂出詳細的步驟或重點等。例如在第一個範疇,《框架》訂明7個採購人工智能的步驟和9項管治的考慮;又例如第三個範疇,訂明定製人工智能模型以及系統實施和管理中,三大過程的注意重點,包括數據質素管理、確保系統和數據安全與必須定期進行審核等。今年5月底,新加坡公布的《生成式人工智能生態環境指引》,只臚列了一些大原則,遠不及《框架》具體及落地。《框架》清晰的指引方便了機構參考及跟從,有助機構防止人工智能系統洩漏個人資料。
《框架》並不是強制性法律文件,但能為機構提供一個合乎道德、負責任、保護私隱的指引使用AI,能起倡導和指引作用。況且,如機構已落實並清晰紀錄遵行《框架》的指引,不但有效識別自身人工智能系統是否存在設計缺陷,一旦出現法律糾紛或嚴重後果,這些紀錄可以作為重要證據,表明機構已盡應負義務。這不僅有助於釐清責任,避免承擔法律風險。
公署推出《框架》,可說是香港在生成式人工智能時代加強保護個人資料私隱的里程碑。但人工智能管治,不只有保障個人資料私隱這一方面。事實上,私人機構在訓練人工智能模型時,如有數據有所不足或質素參差,可能令生成結果出現錯誤,或帶出具歧視、偏見的結論,引發道德問題。《框架》的推出,並不能涵蓋所有人工智能所需的規管範疇。
外國如何應對人工智能
世界各地已陸續有不同的人工智能管治規範。除了上文提到網信辦的《治理倡議》,加拿大也正在草擬相關法案。此外,今年3月,歐洲議會通過了《歐盟人工智慧法案》(EU AI Act),預計今年完成立法,明年開始實施,務求在促進採用人工智能與確保人民有權利使用負責任、合乎道德和可信賴的人工智能之間取得平衡。特區政府亦已就個人資料保護以外的規範和管治作出預備,創新科技及工業局已委託專注於生成式人工智能的InnoHK創新香港研發中心,就生成式人工智能技術及應用的準確性、責任、資訊保安等範疇,研究及建議適當的規則和指引。社會對此寄予厚望,期待InnoHK盡快完成研究及提出規範和管治建議。
總結而言,國家正加速發展「新質生產力」,並開展「人工智能+」行動,以科技創新驅動產業發展,《框架》的推出,正好協助企業善用人工智能,促進產業創新及升級轉型,為香港「人工智能+」的發展鋪平道路,以科技創新驅動產業轉型升級;並協助本港推進數字經濟的發展、加速國際創科中心的建設,積極融入國家發展大局。
原刊於《經濟日報》,本社獲作者授權轉載。
!doctype>