AI「人機溝通」失調 機器代人目標遙遠

且看ChatGPT應用的研發,它背後的智能是利用「大語言模型」(LLM)技術製造的,因此系統是個「好人」或是個「壞人」取決於LLM所使用的數據。

人工智能(AI)的目的是建造能仿效人類的智慧和能力的軟硬件系統,理想的終極目標是達至「機器代人」,可是現實與理想還是相差有點遠。

向智慧助手發指令 須清晰無誤

今天不少企業都採用人工智能技術,開發「智慧助手」(Smart Assistant)的工具。顧名思義,「智慧助手」的工作是協助「老闆」(使用者)解決他所提出的指示(問題)。與現實場境一樣,助理人要奉命行事,回應老闆的指示(例如回答他的問題)。要「做好這份工」,首要條件是老闆所制定的指示(或問題)必需要清晰無誤。因此,每當助理面對模糊不清的指示(問題)時,他便會很自然地不恥下問,要求老闆提供補充資料去澄清闡明。

不過追問過程中,系統較為被動。基本上「智慧助手」每次所提出的問題都是建基於用戶上次的回答。
不過追問過程中,系統較為被動。基本上「智慧助手」每次所提出的問題都是建基於用戶上次的回答。

類似地「智慧助手」利用人工智能「對話系統」(Dialogue System)技術去追問「老闆」,直到問題足夠清楚,讓它能有效地作答。不過追問過程中,系統較為被動。基本上「智慧助手」每次所提出的問題都是建基於用戶上次的回答,所以若然原始問題有誤的話,追問便會產生漣漪效應,問題一錯再錯。如此這般,在問題無法收斂的情況之下,最終答案便謬妄無稽,誤導「老闆」收場。

倘原始問題有誤 只會一錯再錯

歸根究柢,這漏洞源於「對話系統」技術缺乏改錯能力,「智慧助手」無法在人機互動之際,主動向「老闆」提出意見或建議去即時矯正錯誤,避免問題持續地偏離正軌。

業界視人工智能為輔助工具,用作減輕員工的工作量、提升他們的工作效率,促進公司的生產力。從操作層面,專家認為面對重複性高的工種,「機器代人」是絕對可行的。然而,近期「智慧助手」在日常生活(非工作性質)的應用亦漸見普及,例如不少年輕人都擁有自己的「虛擬伴侶」。他們不時會挑選自己的偶像(例如明星、歌星)作為仿效對象,然後利用人工智能技術針對性地生成個人化的「虛擬伴侶」。然而,這些「虛擬伴侶」卻缺乏感情,性格又固執倔強,往往令它的另一半(人類)難以招架。

「虛擬伴侶」乏感情 反令人鬱悶

在人機溝通持續格格不入的情況之下,伴侶效應難免會弄巧反拙,參與人因此而怏怏不樂,雙方最終不歡而散,甚至是導致參與人終日鬱鬱寡歡。

從以上人工智能應用例子可見,人機溝通是單向的,非常被動。「智慧助手」在操作中機與人不協調,「它」不能主動矯正「他」的錯誤指示;在「虛擬伴侶」之間的溝通,他經常要移船就磡,勉強自己去適應它。這些現象反映出科學家所期待的普及化人工智能、「機器代人」願景還是距離很遠。目前這些人機溝通問題已成為人工智能的熱門研究課題,筆者近年亦有積極地跟進。

人機兩者若然過分互相依賴的話,便會產生負面後果,影響人類的智慧發展,適得其反。(Shutterstock)
人機兩者若然過分互相依賴的話,便會產生負面後果,影響人類的智慧發展,適得其反。(Shutterstock)

另外,人工智能的副作用在上述例子中亦表露無遺。由於「機與人」及「人與機」之間溝通失調,人機兩者若然過分互相依賴的話,便會產生負面後果,影響人類的智慧發展,適得其反。例如學生(人)求學期間只靠ChatGPT(機)做作業,而不求甚解,最終會愈學愈笨,成長後分析及決策能力偏弱。又例如,「智慧助手」(它)遇上濫竽充數的「老闆」(他),向他學習,難免會愈學愈偏頗、愈不理智,而做出極高風險、具破壞性的錯誤決定。

且看ChatGPT應用的研發,它背後的智能是利用「大語言模型」(LLM)技術製造的,因此應用系統(例如「智慧助手」)的性格同樣地是由LLM訓練而成的,結果系統是個「好人」或是個「壞人」取決於LLM所使用的數據。

AI恐致災難性傷害 需化解風險

由此可見,「數據是王者」(Data is King),這現象導致在人工智能世界中「窮者愈窮,富者愈富」的「馬太效應」出現,富有的數據提供者便有能力操控應用系統的本質。例如非法之徒可以創造「虛擬騙子」,在社交網絡中四出詐騙圖利,這類例子最近在「元宇宙」(Metaverse)、Web3市場中層出不窮,有不少網民曾中招;又例如,富有的國家利用「生成式人工智能」(GenAI)技術,可以製造具大殺傷力的智能武器,濫殺無辜。這類人工智能問題令人不寒而慄,全球各地政府都十分之關注。

近日世界「人工智能安全峰會」(AI Safety Summit 2023)於11月1日在英國舉辦,全球28個國家政府(包括中、英、美)及歐盟,聯合簽署《布萊切利宣言》(Bletchley Declaration),指出先進AI模型若然被錯誤使用會造成災難性傷害,因此全球逼切地需要設法化解相關風險。

《宣言》強調:「私營部門提高透明度,開發前沿AI能力、適當的評估指標、安全測試工具,以及發展相關的公共部門能力和科學研究。」再者,與會的中國科技部副部長吳朝暉表示,中國願意與國際社會各方加強在AI安全領域的對話與溝通,為建立全球參與的治理框架作貢獻。

原刊於《經濟日報》,本社獲作者授權轉載。

黃錦輝