《香港創新科技發展藍圖》在創科生態鏈的下游產業化方面,政府會落實清晰的科技產業促進政策,並會聚焦人工智能與數據科學等優勢產業發展。要發展創科產業,除了考慮技術上的需求外,應用上的需求同樣重要,否則再好的技術也難以落地。本文簡介人工智能產業化對大數據的應用需求,並舉例以說明之。
微軟在《未來計算》(The Future Computed)一書中提出人工智能開發的六大原則:公平、可靠和安全、私隱和保障、包容、透明、責任。筆者建議香港政府可參考這些原則制定適當的法例,確保用作機器學習的大數據訓練集的實用性,好讓人工智能產品或服務的用戶能享有合理的權益。
避免數碼歧視 保障個人私隱
一:公平:科技使用應該人人平等,大數據分析也應一視同仁,否則人工智能便會出現「數碼歧視」的不良社會問題,影響深遠。然而,由於數據內容往往存在偏頗,這些情況在現實社會中難以避免。舉例,不少國際傳媒指出,在歐美由於大部分被拒借貸的申請者都是有色人種,因此他們往往會被標籤,看低一層,許多財務公司因而會無理地把他們拒諸門外。
二、可靠和安全:人工智能系統由於訓練時數據不足,以致不全面,因而作出錯誤的決定,嚴重者可以危害生命安全。以金融科技系統為例,金融市場變化萬千,由於數據訓練集事前沒有記錄,所以在面對突發事件時,往往束手無策,無法作出有效的判斷,而令用戶損失慘重。
三、私隱和保障:數據訓練集隱藏許多能夠識別個人身分的資料,它的擁有權、使用權等都是屬於個人的,不容企業在機器訓練人工智能系統時,未經同意而作任何使用,包括儲存、處理、轉移等,以保障用戶的私隱。例如,Strava是美國一個非常流行的健身App,若用戶騎自行車,騎行的數據會上傳到雲端平台上,之後在社交媒體平台上有很多人就可以看到他的健身數據。問題隨之而來,有很多美國軍事基地的在役軍人也在鍛煉時使用這App,他們鍛煉的軌跡數據全部被上傳,因此整個軍事基地的地圖數據都能在平台上被閱覧,但美國軍事基地的位置是高度保密,外洩會影響國家安全。
機器代人倘犯錯 須釐清責任誰屬
四、包容:同樣地在科技平等的大原則之下,所有人無論懂不懂科技,都應該可以享用人工智能帶來的好處,否則社會便會產生「數碼鴻溝」。例如,有外媒指外國遊客因為沒有內地電話卡,而不能享用內地多元化的網上服務(如滴滴出行),造成諸多不便。
五、透明:機器學習是一套點到點(P2P)技術,它利用「模式匹配」(Pattern Matching)運算法,輸入便產出匹配結果。這算法被不少科學家指黑箱作業,批評產出結果缺乏理據和解釋。試想一個人工智能醫生幫你斷症及配藥,但它卻沒有給你解釋,這種醫生你可信任嗎?
六、責任:「機器代人」是人工智能的理想目標,若然成事,社會難免會出現不少爭拗,當應用系統出錯時,責任誰屬,是人或是機器?若然是機器的話,它在現有法律之下又怎會受到公平的懲罰呢!
最近,美國公司OpenAI推出ChatGPT自然語言生成人工智能(Generative AI)系統,因應用戶要求自動編寫文章。微軟表示計劃把技術商業化,嵌入其網絡產品中。筆者認為提升產品的智能性無疑是創科的目標,但公司必須認真考慮《未來計算》的六大原則。
原刊於《星島日報》,本社獲作者授權轉載。