人工智能可信性關鍵 應防止GenAI回應信口開河

人工智能全球普及化,勢不可當。AI發展除了在科技層面力求突破之餘,AI的可信性亦非常關鍵,絕對不容忽視,它不但影響商業,更甚者會對國家安全造成隱患。

人工智能(AI)研究始於上世紀50年代,目標是機器代人,就此AI系統的可信性尤其重要。顧名思義,這裏的可信性是指AI所產出的答案是否可靠。科技發展日新月異,過去將近70年AI的功能不斷地在進步,本文以科普教育為目的,簡介科學家為提升AI可信性所引進的不同技術。

第一代AI系統主要基於規則(Rule-based),其運算方法是模仿人類如何利用經驗(Expertise)及知識(Knowledge)去解決問題。但由於當時硬件(包括記憶體、處理器等)能力的局限,第一代AI系統僅能有效地調用少量的規則,約束了其應用覆蓋面。因此當時的市場認為AI技術偏弱、不可靠,只適合用作製造玩具系統而已,不切實際。所以,AI研發初期遇上嚴重瓶頸,進展緩慢。

第三代AI突破在於內容生成

為彌補低應用覆蓋率的短板,電腦科學家引進數據驅動(Data Driven)的人工智能。改進的基本概念是透過集思廣益,並採用機器學習技術去落實。做法是從訓練數據集(Training Data Set)着手,讓AI系統去獲取更多相關的有用資料,從中吸取更廣泛的經驗。理論上,在完美的情況之下,訓練數據越多,生成的AI系統的經驗便會越豐富,解決問題的能力亦會更強。

隨着全球5G、大數據、深度學習、AI硬件技術的突飛猛進,AI研究已進入新紀元。(Wikimedia Commons)
隨着全球5G、大數據、深度學習、AI硬件技術的突飛猛進,AI研究已進入新紀元。(Wikimedia Commons)

透過海量數據的訓練,第二代AI賦有極強的分類(Classification)功能,較為人津津樂道的應用包括圖片分類、人臉識別等。分類的準確度非常關鍵,直接影響AI系統的可信性。因此,系統面世前一般會進行準確度測試。技術上,AI分類的決定可以判對(True)或判錯(False);而數據內容則有正面(Positives)及負面(Negatives) ,例如數據是一堆貓和不是貓的圖片,一張貓的圖就是正面,一張不是貓的圖就是負面。所以,測試時系統產出的分類結果有四個可能性:(一)判對正面內容(True Positives,TP),即正確地判斷貓的圖片是貓;(二)判對負面內容(True Negatives,TN),即正確地判斷不是貓的圖片不是貓:(三)判錯正面內容(False Positives,FP),即錯誤地判斷貓的圖片不是貓;(四)判錯負面內容(False Negatives,FN),即錯誤地判斷不是貓的圖片是貓。高度可信AI必須確保系統每次都判對,即(一)及(二)皆要達到最高值,而同時(三)及(四)則要達最低值。

隨着全球5G、大數據、深度學習、AI硬件技術的突飛猛進,AI研究已進入新紀元,能夠解決更多、更複雜的問題。除了分類功能之餘,第三代AI的突破在於內容生成。用戶提出要求(提示,Prompt),生成式人工智能(GenAI)技術便會產出相應的結果。類似地通過大規模的深度學習,GenAI系統建立一個大語言模型(Large Language Model,LLM),當中深度分析了前人的經驗和知識,並基於這些已知(Knowns)的智慧,生成滿足用戶要求的答案。

希望不懂時乾脆拒絕作答

為保障系統的可信性,第二代AI的做法是減少誤判,從輸出(Output)着手,確保產出的結果判對值高企;而第三代AI更進一步地從提示(輸入,Input)端出發。從知識角度看,大型語言模型擁有廣泛的世界知識,而基於LLM培訓出台之GenAI系統的認知能力,其實依然會受限於LLM的知識範圍。因此,在現實操作中,面對開放式的用戶提示(例如問答,Q&A)的知識密集型任務時,在有限的知識基礎下,GenAI回答難免會出錯。這些錯誤可能會對社會產生重大風險,並降低GenAI的可信性。所以,GenAI需要提供與現實世界一致的準確訊息,它要知道自己知道甚麽和不知道甚麽,並通過自然語言(Natural Language)表達出來。

GenAI系統面對用戶輸入的要求(即提示),作答時要麽是懂(Know)或不懂(unknow);同時系統背後大語言模型的內容要麽是已知(Knowns)的或未知(Unknowns)的知識。在此基礎之下,GenAI的輸出有四個可能性:(一)懂已知(Know Knowns);(二)懂未知(Know Unknowns);(三)不懂已知(Unknow Knowns);(四)不懂未知(Unknow Unknowns)。當前AI研究希望達到的是每當GenAI系統碰上不懂的用戶要求時,便乾脆拒絕作答(say no),免得它信口雌黃。如此這般,GenAI的可信性便可大大提升。

人工智能全球普及化,勢不可當。例如,最近新加坡政府在新一份《財政預算案》中提出將在未來5年投資10億坡元(約58億港元)發展AI,包括大力發展AI晶片、超算中心、11個不同語言的LLM等。概括而言,AI發展除了在科技層面力求突破之餘,AI的可信性亦非常關鍵,絕對不容忽視,它不但影響商業,更甚者會對國家安全造成隱患。

原刊於《星島日報》,本社獲作者授權轉載。

黃錦輝