生成式人工智能(AI)作為我們這個時代最具變革性的技術進步之一,圍繞它的討論熱度依然很高。以DALL-E 2、Stable Diffusion和ChatGPT為代表的的生成式大模型正在迅速地發展和進步。從根據提示詞創造生動的圖像到以自然語言進行複雜的對話,展現了這項技術能夠在許多方面都帶來巨大變革的潛力,包括在藝術、營銷、新聞傳播和新藥研發等等不同垂直領域的應用。生成式AI在提高效率和創新方面的潛力是有目共睹的,但它日益增長的能力和影響力也引發了包括模型研發人員在內的公眾對其在道德倫理、數據安全和監管方面的擔憂。
近期就曾出現過一些反對使用生成式AI的抗議事件──荷里活最近的罷工活動就在抗議未經同意使用生成式AI技術模仿他人的聲音和肖像的行為,這亦突顯了人們對版權侵權和錯誤數據傳播等問題的擔憂。那麼,隨着生成式AI滲透到社會和人類生活的更多方面,我們應該如何平衡它的應用潛力及其潛在風險呢?
AI發展對監管能力提出新要求
生成式AI的快速發展以及其呈指數級增長的內容產出給虛假內容、負面信息、數據隱私和知識產權等方面的監管帶來了新的挑戰。
對於虛假信息的監管來說,由於生成式AI能在很短的時間內生成數量龐大的內容,全面監管生成的文本、圖像品質及真實性會變得十分困難。目前,檢測虛假信息的相關技術仍然在研究和開發的過程中,可靠的解決方案並不多。這也在無形之中增加了某些模型或生成的內容為既得利益服務,同時傳播錯誤信息的風險。如果要更好地監管AI生成內容的質量和真實性,我們將需要更嚴格的監控和審核流程。在這個方面,我們還有很長的一段路要走。
此外,目前還存在一些數據問題亟待解決。一些生成式模型在未經許可採集訓練數據時可能會涉及侵犯個人隱私。即便以某些公開數據訓練,其中也可能會涉及隱私信息,這不但對法律法規的制定提出了新的要求,也需要人們提高相應的隱私保護意識。
除此以外,用於訓練模型的數據也可能會帶有偏見,這意味着模型最終可能會輸出包含負面信息的內容。如果這些模型所依賴的訓練數據本身就包含固有的偏見,那麼其可能在不知不覺中加劇現有的社會偏見,並導致更大規模的負面影響。比如在招聘、晉升和貸款審批等領域加強歧視和不公平待遇。這個問題的解決方案可以是使用數據標記(data tagging)和數據增強(data argumentation)等技術手段,來幫助搭建更公平、更具代表性和包容性的訓練數據集。
因此,我們需要建立嚴格的數據治理框架。包括對權利、許可、同意、目的、限制等方面更清晰的定義,並且確保治理條款仍然具有一定的包容性,以適應技術的持續發展。企業亦需要在內部持續監測與評估數據隱私和安全方面的風險。
在知識產權方面,生成式AI可能會對知識產權的保護帶來新的挑戰。例如,在未經允許的情況下,擅自使用受版權保護的作品來訓練模型,將會引發版權問題。模仿他人知識產權風格的內容輸出該怎樣被定義,是否同樣受到知識產權保護等,目前也屬於另一個灰色地帶,需要更清晰的法律規範。人們對於上述問題的態度也存在分歧:一些人認為這是非法利用知識產權,而另一些人則認為,這種未經授權的使用擴大了藝術家們的知名度,一些藝術家可能希望通過生成式AI擴大他們作品的傳播範圍。由此可見,在保護現有知識產權和培育創新之間保持平衡是一個複雜的問題。此外,AI生成的作品是否享有知識產權也是一個有爭議的問題。許多司法管轄區的現有法律法規都不承認AI作為知識產權持有者。
由於商業的多元化,遵守不同國家跨境數據流程動的法律規定同樣具有挑戰性。許多生成式AI模型例如Stable Diffusion是利用大量來自全球的數據進行訓練的,但這可能會違反一些國家關於數據本地化的法律,即要求特定類型的數據必須在本國存儲。此外,公司還需要面對不同市場中針對AI生成內容的法律要求,這是跨境使用大模型的另一個挑戰。
鑒於AI生成內容的數量龐大,對其進行審核將是一項艱巨的任務。這些不同地區的法律規定為想要在全球範圍內部署生成式AI的企業帶來了更加複雜的挑戰。他們可能不得不對一些模型進行地域限制,或者開發符合各國法律規定的本地化版本。
跨境法規的衝突對國際上推廣生成式AI技術亦構成了障礙。中國於2023年7月發布了全球最早、最詳細的生成式AI規範文件,並於2023年8月15日起正式實施。該規範展示了中國在生成式AI產業發展的初步布局,其涵蓋了生成式AI在學術研究和應用領域方面的規範條款,同時強調了該技術的發展要符合審慎的原則並遵循社會主義核心價值觀。除了中國,2023年6月歐洲議會上也通過了歐盟歷史上首個人工智能法規,即歐盟人工智能法案。該法案將對人工智能技術實行全面的監管制度。此外,在全球其他司法管轄區也有望制定更多人工智能技術的法律法規。事實上,大部分技術的發展往往超越法律監管的步伐,因此,對於生成式AI技術進步的速度而言,及時且完善的跨境監管將是一項巨大的挑戰。
超越法規:倫理規範的必要性
僅僅依靠法律規範無法從根本限制生成式AI對社會造成的負面影響。在這個時代,社會需要建立新的規範來適應生成式AI技術的發展,而人類的監督或許比法律的規範更加有效。行業領導者呼籲在訓練生成式AI模型方面提高透明度,設定恰當的問責機制和道德準則來監管生成式AI的技術發展。許多專家也強調開發商需要採取積極的合規措施,比如對新模型進行道德審查來減少其帶來潛在的負面影響。
顯然,人們需要在不扼殺創新的情況下防範生成式AI被用於有害的目的。因此,國際上通用的人工智能指導方針需指出開發商和運營商有義務從一開始就將公平、透明等正向價值觀納入系統中,並予以問責機制。與此同時,提高公眾的道德意識也可以促進生成式AI被合理合法地使用。最終,一個植根於人類共同價值觀的、基於社會治理原則的管理辦法,才是最為有效的。
在動態中尋找平衡
企業領導者應該意識到「一個世界,兩個系統」(One World, Two Systems)這種現象正在形成,對於生成式AI來說,它在中國市場與美國(和西方)市場之間可能會有不同的發展。跨國公司可能需要在不同的市場按照相應的合規流程分別開發和定制AI模型和系統。除此之外,各方也需要積極展開關於生成式AI倫理規範和法律監管等方面的跨境合作,以防止跨國企業由於市場體系不同而產生的風險,亦或是防止由此導致的生成式AI運營成本劇增。
展望未來,生成式AI亟需一個細緻的、全球化的合作方法。這個方法應當起到鼓勵創新的作用,同時遏制生成式AI用於有害的目的。企業──特別是跨國公司在不同市場經營業務時──必須為日益複雜的監管環境做好準備。我們不僅需要企業和監管機構的參與,公眾也應當參與進來,通過多方的磨合和協調為政策或道德規範的建立添磚加瓦。隨着政策和社會逐漸適應技術的不斷發展,各國以及不同群體之間的協調和統一監管對生成式AI技術的發展至關重要。
!doctype>