人工智能(AI)技術發展一日千里,新系統的湧現、新應用的落地、新思維的碰撞,為業界帶來無限商機。有估計全球AI市場到2025年將達到約2,000億美元,年複合增長率高達36.62%,發展進度驚人。正值ChatGPT發布1周年之際,本文回顧過去一年AI在應用上常見的問題,從而帶出AI技術在2024年的主流研究方向。
「AI幻覺」令用戶信心大打折扣。面對自己掌握不透的問題(提示,Prompt)時,ChatGPT不排除會因為資料不足而問非所答,這情況在實際應用中屢見不鮮,被AI業界稱之為幻覺(Hallucination)。
這種胡編亂造作答的行為,不僅大大地削弱生成式AI的可信度,更有可能引發安全危機。如果AI被用於醫療診斷,它可能會錯誤地診斷出一種不存在病症,從而給患者帶來不必要的恐慌,甚至乎它提議反效的治方。如果AI被用於自動駕駛系統,它可能會錯誤地識別道路情況,導致交通意外。因此,科學家必須正視這問題,採取有效的措施來解決。
大數據安全 決定AI可靠性
AI可靠性建基於大數據安全。AI安全性全球關注,主要集中在私隱、偏見和濫用等問題上。私隱問題主要是由AI訓練數據引起的。AI訓練過程牽涉大量的數據,盡管開發者對數據先進行預處理,例如把不確實、高風險的敏感數據過濾掉,但在海量的訓練數據中,是難以完全杜絕包含個人私隱的資料。而這些資料,往往在ChatGPT被黑客故意引導之下,會在輸出中被洩露無遺。
其次,由於訓練數據包括不少個人意見,因此難免會帶有主觀色彩。而數據中的主觀因素在上億次訓練後,同樣會傳遞給AI。這導致AI有時也會不自覺地輸出充滿偏見的觀點。這種「洗腦式的智慧」難免會加劇世界的不公和誤解,使人類加倍質疑AI的可信度。
總之,AI是把雙刃劍,人類可以利用其智慧功能來提升日常工作效率,同樣地不法之徒也可以利用它為非作歹。如何確保AI在安全的範圍內不被濫用,是使用者必須面對的挑戰。這不僅需要技術上的突破和創新,更需要全社會的共同努力和監管。只有這樣,我們才能確保AI技術的發展能真正造福於人類,而不是成為威脅人類安全的隱患。
資訊的實時性影響AI回應的時效。話題的實時性是聊天對話的現實需求,網上聊天無所不談,娛樂八卦新聞、財經動態、國際政治等話題,五花八門。然而,這些話題都具有很強的時效性,但目前基於AI模型構建的聊天機器人是無法做到的。因此,如何讓AI系統更加敏銳地了解現實世界的脈搏,並及時更新其知識庫,是AI研究必須面對的挑戰。這需要新的算法和技術,去保證AI系統的準確性和穩定性之餘,同時提高其實時學習的能力。
運算力問題成瓶頸 亟待解決
運算力薄弱窒礙大模型構建。運算能力可制約AI的進展,在AI功能持續地進化的過程中,每一輪訓練、每一次迭代,都需要海量的計算資源和時間。除了成本問題之外,算力不足還會影響AI的性能和回應速度。舉例,在面對實時性要求極高的應用場景中,如自動駕駛或實時語音識別,若然系統算力不足的話,AI的運算(以至回應)速度會受到影響,因而影響其應用效果。因此,運算力問題已經成為AI發展中一個亟待解決的瓶頸,電腦科學家正埋頭苦幹地去研究解決方案。
單模態資訊交流不利AI通用性。目前,ChatGPT、Midjourney等生成式AI工具專注於自己的主模態領域,分別為文字及圖像。盡管ChatGPT在最新版本中已推出了文字生圖的功能,但這只是多模態融合的起點。通用的AI系統並不應該只是一個獨沽一味的聊天機器人或圖像生成器,它應該是一位全能的創作家,能夠揮灑自如地混合使用文字、圖像、語音等各類媒介信息。在教育領域中,一位循循善誘的老師為學生答疑解惑時,需要理解和融合各種模態的數據,例如從深奧的學術論文到微妙的語音語調、從複雜的地理信息到細膩的醫療影像等各式各樣資訊;AI老師也必須如此,而且應是有過之而無不及。
缺乏理解和自主能力的AI難以取代人。傳統AI模型提供推測(Pedict)功能為主,可以估算(預測)未來,但它缺乏真正的理解和自主能力,無疑這與通用AI(AGI)的目標還是有點距離。
智能體概念興起 增自主力
近期,AI科研界流行AGI「智能體」(Agent)的概念,這概念將成為AGI發展的核心驅動力。「智能體」不單止能夠處理和理解多模態數據,更能夠在此基礎上進行自主規劃和決策。
再者,它不再會簡單地跟隨預設的規則,執行一連串預測的任務,而是能夠在複雜多變的環境中靈活應對、主動與外界交互、完成一系列複雜任務。例如一位具有「智能體」的AI船長,可以在茫茫大海中獨立導航,不僅能預測風向和水流,更能根據實際情況靈活調整航綫和策略。
AI正火熱地朝向通用性進發,這目標充滿未知與挑戰,但亦同時孕育着無盡的可能與希望。筆者期待2024年各國各地盡早化干戈為玉帛,讓AI科學家盡快安心重返實驗室,研究出更多、更先進的通用AI科技,造福人類。
原刊於《經濟日報》,本社獲作者授權轉載。
!doctype>