加強事實查核 防ChatGPT黑技術

ChatGPT應用廣泛,然而「水能載舟亦能覆舟」,若然此AI技術被濫用的話,結果是未能造福人類反而危害人間。但罪魁禍首並非AI,而是其使用者──人類。

計算機科學家一直以研發通用人工智能(AGI)為使命,目標是促進AI技術多元及普及化,而不只是為指定的應用或機構(特別是巨企)而設。例如,「機器棋皇」AlphaGo並不多元化,它只是專長於下圍棋而對中國象棋卻一竅不通;谷歌旗下的DeepMind公司是AlphaGo背後一系列技術的研發者,公司正在申請相關專利,如果申請成功這些AI技術便難以普及化。

2015年多位科技界巨頭包括馬斯克(Elon Musk)、阿特爾曼(Sam Altman)、蘇茨克維(Ilya Sutskever)、布羅克曼(Greg Brockman)等聯合創辦了非營利公司OpenAI,目的是為「實現安全的通用人工智能,使其有益於人類」。由此可見,安全對人工智能非常關鍵,是國際關注的研究課題。近期OpenAI研發產品ChatGPT風靡全球,應用範疇廣泛,各行各業大派用場。

本文以ChatGPT為例,簡述相關的AI安全研究,研究之目的是設法去控制機器或人類可能引發的安全風險,從而避免或減輕它對使用者及社會的負面影響。

低質數據「致幻」 存安全風險

古語云「近朱者赤,近墨者黑」,人的習性是會因環境影響而改變的;機器和人類相似,「AI效能是會因數據影響而改變的」。所謂「垃圾入垃圾出」(Garbage In Garbage Out,GIGO),ChatGPT是通過深度學習(Deep Learning,DL),進行大數據分析而產生的AI「人機對話系統」(Dialogue System),因此它背後的訓練數據(Training Data)之質量對ChatGPT的效能及安全性至關重要,舉例:

在ChatGPT應用中,低質數據會導致「幻覺」(Hallucination)的現象。AI的目標是模仿人類,若然ChatGPT訓練不足,它同樣地會犯人類會犯的類似錯誤。AI科學家稱此現象為「幻覺」,在商業社會中非常普遍,嚴重影響ChatGPT應用的可靠性。歸根究柢,「幻覺」所生成的是虛假資訊,不盡不實,所以必須進行事實查核(Fact Checking),避免誤導用戶。

另外,若然訓練數據的內容是帶有立場(Stance)的話,例如在選舉期間偏幫某一候選人,ChatGPT所生成的回應難免會不客觀,存在偏見。同出一轍地,在教育應用上,一個帶有偏頗政治立場的ChatGPT虛擬老師,會潛意識地幫學生洗腦,「教壞細路」。

OpenAI在設計ChatGPT的過程中也有考慮這一個恐怖漏洞,拒絕生成相關及其他不安全提示(Prompt)的回覆。(shutterstock)
OpenAI在設計ChatGPT的過程中也有考慮這一個恐怖漏洞,拒絕生成相關及其他不安全提示(Prompt)的回覆。(shutterstock)

不法之徒「翻牆」 濫用欺騙AI

因此,消除「幻覺」、「事實查核」、「立場」識別等都是近年ChatGPT的熱門研究題目。嚴格來講不良數據是安全風險的禍根,而數據的質量控制並不完全是非人為的,例如偽造合成虛假資訊、被「對抗式攻擊」(Adversarial Attack)進行刻意數據破壞等。

ChatGPT應用廣泛,然而「水能載舟亦能覆舟」,若然此AI技術被濫用的話,結果是未能造福人類反而危害人間。但罪魁禍首並非AI,而是其使用者──人類。因此,禁止使用者把AI用作武器,是世界公認的AI道德操守,否則無知的機器人便會被利用危害安良,造成生靈塗炭。

辨別虛假信息 方能百戰不殆

人類直接操控(濫用)AI,作非道德行為在現實世界中已經是難以駕馭,然而在ChatGPT的協助之下,AI濫用更是輕而易舉,例如不法之徒可以很容易地利用ChatGPT編寫殺害陰謀。有見及此,OpenAI在設計ChatGPT的過程中也有考慮這一個恐怖漏洞,拒絕生成相關及其他不安全提示(Prompt)的回覆。但「道高一尺,魔高一丈」,使用者會以翻牆手段,婉轉間接發出提示,「欺騙」ChatGPT,從而獲得它獻文。這類不良手法必須杜絕,確保AI安全。

最後,所謂「知己知彼百戰不殆」,在現實或虛擬世界中,人類無論與自然人或虛擬人協作,都先要了解他(它)的個性、能力,才能事半功倍。因此,用戶必須認識「幻覺」、「立場」、「虛假信息」、「翻牆」等黑技術對ChatGPT的影響。

原刊於《經濟日報》,本社獲作者授權轉載。

黃錦輝