2025年全國兩會於3月4日至11日在北京舉行,筆者於3月8日列席十四屆全國人大三次會議第二次全體會議,並聽取了全國人大常委會工作報告和《最高人民法院工作報告》及《最高人民檢察院工作報告》(簡稱「兩高」工作報告)。筆者欣見今年的「兩高」工作報告大力支持科技創新發展,當中不少工作放在了維護知識產權、國家安全等範疇,而這些都是發展科創的關鍵要素。
國務院總理李強在今年政府工作報告中介紹今年政府工作任務時提出,「因地制宜發展新質生產力,加快建設現代化產業體系」,並強調會「持續發展『人工智能+』計劃」。今年春節期間以梁文鋒為首的浙江人工智能公司「深度求索」橫空推出DeepSeek V3(DS)「生成式人工智能」(Generative AI, GenAI)「大型語言模型」(Large Language Model, LLM),震撼國際,特別是它的「開源」運作模式,令人工智能可普惠全球,應用到社會各不同階層。有科技專家分析,2025年世界各地將會出台大量以「深度求索」技術為底座的智能產品及服務。
「深度求索」的開發應用牽涉到大量的訓練數據,如何合法和安全地使用數據難免會為國家法律及檢察的工作,構成新的挑戰。以下是三個在應用上常見的問題:
一是「二次創作」:開發者怎樣能夠一方面不侵犯原數據提供者的版權,而另一方面又可以發揮創意?
二是「內容安全」:在人工智能系統訓練過程中所謂「垃圾進垃圾出」(Garbage In Garbage Out),倘若訓練數據內容被惡意篡改,最終訓練生成的系統便會失效,甚至變成「破壞王」。
三是「虛假資訊」:隨着「生成式人工智能」技術的日益進步,製造虛假資訊(包括文字、語言、錄像等)已易如反掌,但這些失實資訊可能會對社會造成極大的傷害,例如金錢上的損失甚至煽動民意。

構建人工智能治理框架
中國現時尚未出台針對人工智能(AI)的獨立法律,但已有一些法律和行政法規對人工智能的發展、應用及倫理規範等提出了相關要求。例如:
一、《網絡安全法》於2017年生效,是為數據安全、網絡運營規範、個人訊息保護而設。人工智能技術依賴大量數據訓練和應用,此法對網絡運營者收集、使用個人訊息提出了合規要求,限制了數據濫用,為人工智能開發中的數據安全提供了法律框架。
二、《數據安全法》於2021年生效,針對數據分類分級、跨境數據流動、維護數據主權等範疇。此法規範了數據處理活動,要求建立數據安全管理制度,對人工智能研發中的核心資源(數據)的合法使用和風險防控提供了依據。
三、《個人信息保護法》於2021年生效,制定個人信息處理規則及用戶權益保障。在應用中,此法嚴格限制人工智能算法對個人訊息的收集和處理,要求「知情同意」原則,防止「大數據殺熟」等算法歧視問題,保障個人隱私權。
四、由國家網信辦等七部門於2023年聯合發布的《生成式人工智能服務管理暫行辦法》。這是一套部門規章及政策,是中國首部針對生成式AI(如ChatGPT類技術)的專項監管規則,要求內容安全、數據合規、透明度及用戶標識(如AI生成內容需標註)。
概括而言,中國主要通過《網絡安全法》、《數據安全法》、《個人信息保護法》等三部法律,構建了人工智能治理的基礎框架,側重數據安全和隱私保護。針對新興技術(如「生成式」人工智能),再以部門規章形式進行補充規範。筆者認為政府未來要進一步專門立法以應對人工智能倫理、「深度偽造」(Deepfake)、「虛假資訊」等挑戰。最後,政府如何適度立法,既可平衡原創者知識產權的保護、人工智能的可靠性,又能避免窒礙系統開發者的創意,這將會是政府持續推動「人工智能+」計劃的重要關注點。
香港方面,就個人訊息保護已有立法,私隱專員公署在2021年和2024年分別發布《開發及使用人工智能道德標準指引》和《人工智能 (AI):個人資料保障模範框架》。但人工智能發展一日千里,無論在數據收集、算法的透明度、標示生成式人工智能作品等相關範疇,現時特區政府仍沒有特定的規管法例,這些都值得我們急起直追,參考內地相關法規,制訂適用於本地的規章法度,為網絡、人工智能,以至國家安全做好防護工作。
原刊於《文滙報》,本社獲作者授權轉載。