編按:個人資料私隱專員鍾麗玲6月29日(星期六)於香港電台節目《香港家書》中分享,人工智慧(AI)工具愈來愈普及,AI能夠自動化許多繁瑣的日常工作,從而提高效率。同時,鍾麗玲提醒,我們必須高度重視這些AI系統存在的一些關鍵問題,例如準確性、隱私保護和安全等方面的風險。以下為書信全文。
欣欣:
最近工作忙嗎?近年來生成式人工智慧(AI)工具愈來愈普及,你又有沒有在工作中運用這些工具呢?上周與你姊姊吃飯時,我們也有提起AI這個時下熱門話題。她大讚生成式AI令她的工作量減輕了不少,她說只需向聊天機械人輸入一兩句指示,就可得到一篇大方得體的文件初稿,甚至幫助她分析財務報表。也難怪現時許多機構都打算採購各種AI系統用於營運之中,進而提升生產力。
不過,值得留意的是,聊天機械人提供的信息,很多時並非百分百準確。聊天機械人有些時候甚至在它的回應中,以出乎意料的方式向你洩露個人資料。舉例來說,若你向提供予公司內部員工使用的聊天機械人輸入自己的個人資料,聊天機械人或會將你輸入的數據儲存至它的數據庫,並且在回答其他員工的問題時披露這些資料,構成私隱風險。此外,去年有研究人員發現,當他們要求市場上某聊天機械人不斷重複一些單詞時,它雖然會先按指示重複該單詞,但不久之後,它就會開始輸出訓練資料,當中包括姓名、電話、電郵地址等個人資料。欣欣,我相信你也知道,訓練AI模型需要海量數據,隨着AI模型不斷「升呢」,它們對數據的「胃口」愈來愈大。 有報道更指出,一個知名品牌的聊天機械人模型的開發者從互聯網上收集了多達3000億字來訓練模型,而這些數據很大機會包含個人資料。
此外,AI輸出的信息可能不準確,具有歧視性或帶有偏見。美國有研究顯示,許多人臉辨識技術系統錯誤辨識有色人種臉孔的可能性比白人高達10至100倍,原因是訓練數據中屬有色人種的數據不足。若AI系統是用來診斷病人,但分析錯誤,導致醫生「斷錯症」、延誤治療,後果就不堪設想。事實上,AI系統「擺烏龍」的情況時有發生。據報道,美國有一名血癌病人被AI判斷為患有敗血症,因此需要進行抽血等進一步醫療程序,結果卻發現AI誤診,白白地增加了病人的感染風險和醫藥費。
另一方面,AI的數據安全風險同樣不容忽視。 AI系統與其他資訊科技系統一樣,有資料外洩風險。我們身處數碼年代,無論是香港或其他地區,資料外洩事故都呈現上升的趨勢。同樣地,AI系統亦可能因為駭客入侵或系統設定出錯等不同原因而導致資料外洩。去年正有一宗牽涉AI聊天機械人的嚴重資料外洩事故,除了洩露了部分用戶過往對話的標題,更洩露了用戶的姓名、電郵地址和信用卡號碼的部分數字。
AI數據安全風險的應對之道
針對香港機構使用AI的情況,私隱專員公署於今年初已就28間機構使用AI的情況完成循規審查,並未有發現任何違規情況。為因應AI所帶來的風險,公署早前出版了《人工智慧(AI):個人資料保障模範架構》(《模範框架》),協助機構在採購、實施及使用AI,包括生成式AI處理個人資料時,遵從《私隱條例》的相關規定。這套《模範框架》建基於一般業務流程,涵蓋四個範疇,就保障個人資料私隱方面提供有關AI管治的建議及最佳行事常規,包括建議機構應制定AI策略及管治架構、評估相關風險、採取「基於風險」的方式以決定所需的人為監督程度、實行AI模式的定製與AI系統的實施及管理,以及促進與持份者的溝通及交流。業界對公署推出《模範框架》,反應相當正面,許多機構都認同《模範框架》有助它們安全、合規地使用AI。 《模範框架》以淺白的文字,具體的個案、例子、圖表說明怎樣在採購、實施及使用AI模型時保障個人資料,並引入「紅隊演練」、AI事故應變計劃等建議,提升系統安全和數據安全。我希望《模範框架》可幫助中小企對症下藥,更安心地採購、實施及使用各式各樣的AI系統。
為了協助公眾和機構理解《模範框架》的建議,我們亦已推出懶人包,將《模範框架》濃縮至兩頁簡單又易明的單張,令到大家可以透過該單張輕易掌握框架的精髓。
我相信在採取適當的保障措施下,AI的使用將可以為大家帶來更大的益處。機構若對《模範框架》的內容有甚麽疑問,可致電私隱專員公署的中小企熱線查詢。我們也會主動為業界提供協助,幫助機構將《模範框架》的各項建議納入至他們的業務流程之中,提升AI管治水準。公署將舉辦講座及工作坊,為業界詳細介紹框架內容。
欣欣,我深信《模範框架》會協助孕育AI在香港的健康及安全發展,促進香港成為創新科技樞紐,推動香港以至大灣區的數字經濟發展。
最後姨姨想提提你,機構固然有責任在使用AI之餘,保障用戶的個人資料;而你我作為不同AI工具的使用者,也要學懂保障自己及他人的個人資料私隱。你使用聊天機械人時,要切記不可隨便透露任何個人資料呀。私隱專員公署早前都出版了《使用AI聊天機械人「自保」十招》,閒時記得看看這單張,學多幾招傍身、保障自己的私隱!
姨姨
2024年6月29日
!doctype>