看到美國ABC電視頻道的訪問,訪問對象是OpenAI的創辦人,也就是ChapGPT的研發者Sam Altman。
訪問的記者問了許多尖銳的問題。基本上是追問研發者如何面對生成式AI會產生的負面影響。這裏只選擇其中引起筆者注意的。一、生成式AI工具將會取代許多行業,造成失業。二、工具將會令人難分真假,製造不真實的訊息。三、AI難免將會孕育許多犯罪行為。四、AI的進一步發展,會不會有一天機器將取代人類。五、AI將會如何影響教育。
雙方僅有的共識,是生成式的AI,將會令到社會巨變。訪問者咄咄逼人,對方不得不承認有種種負面影響的「可能性」,但認為他們已經設下種種的防護關卡,不斷希望減少負面或者犯罪情況的發生。其中加插了Sam的一位女同事的訪問,對方直言這是一個開放型的平台,言下之意,他們沒有義務左右人們如何使用這項科技。
負面效果,研發者的責任?
筆者聽下來,覺得記者也許是問錯了對象。Sam無可懷疑,是一位非常出色的科技研發者,但是環顧全球的科技人員,他們專心致志的,是科技的研發。他們的夢想目標,是科技的突破。而突破的起點,固然是可以延伸人類的天生能力,賦予人類更大的能力。但是突破的一個潛在目標,卻是模擬人類,這也許是因為人類本身是一個異常複雜的物體,有無限的模擬天地。
在這樣的研發過程中,科技是在自我的框架裏面發展的。Sam的訪問,恰巧說明了這一點。他會覺得,我是研發科技的,這些事為什麼要問我?科技發展是中性的(也因而是神聖的:筆者的解讀),因為那是「科學」,無所謂對與錯。他也提到了,科學往前發展了,人類就要去適應。他沒有說的是:「難道要科學發展停下來?」對於人類會有什麼影響,並非是他們的考慮,起碼不是研發的時候的考慮。頂多是在研發了以後,引起了社會的關注,才設法讓工具的使用導向正面,而減少或者防止負面的影響。他們不是不努力,但這並不包括在他們研發的初心。
這在教育就太明顯了。疫情之前,香港只有極少數的學校採用電子化的教學。採用的那些學校,往往是由某個供應商,為學校提供資源,建實驗室,使用供應商設計的課程與教材。供應商絕無惡意,但學校是被動的。他們對於收到的科技資源,只是接受和試驗。試驗這些科技資源,並不是因為教學上的需要。往往是學校和教師覺得:這些都是代表未來,因此接受與參與,義不容辭。這些技術與試驗,並非因為教學改革的需要而到來;相反,是科技的到來,才思考教學的應用。有時候,由於研發科技的不太理解教學的內涵,也許不在意地保存或者鞏固了保守的教學理念。
機器學習,真的模擬人腦?
是疫情的到來,因為停課,但又掛心學生的學習,「停課不停學」,於是積極使用科技。有了另類學習的需要,教師才慢慢地回到「駕駛者」的座位。今天,問問香港的學校,家家都同時掌握起碼20至30種工具,改變了開發商壟斷的局面。
另一個例子,多年前在北京一個大會上,權威的語音科技開發商,出產了一個可以代替教師的口試平台。可辨認語音、口音、語法,也可以輸入內容要求。台下教師馬上反應:考口試是人對人接觸,考生的表情、態度都很有關係。「你就是給我一大堆的數據,不是我要的。」
最近看到另一個訊息。也頗有意思。當代語言學泰斗Noam Chomsky,會同其他兩位作者,最近在《紐約時報》(3月8日)登了一篇文章,題目是〈ChatGPT的虛假承諾〉。一看題目就知道是老人家發火了。文章開宗明義就說,科技的發展,總是會給人們帶來憂慮,但也會令人樂觀。但是目前的AI發展──機器學習──「卻會把我們的科學降級,也會降低我們的道德操守,在科技裏面混進了關於語言和知識的錯誤概念。」
文章說,現在的機器學習是以大量的數據,仿照人類的語言,按照複雜的推算,推導出最有可能的答案。這與人類的學習剛剛相反。人腦是出奇地高效而且奇妙,只需要少量的訊息,不靠硬性的數據推導,就能夠創造出闡釋,也就是知識。文章還以幼兒學習語言為例,說明與現在的機器學習,是完全不同的一回事。
文章認為,人對事物的認識,不止問「是什麼」,還會問「不是什麼」。「不可能吧!」正是人類創造的關鍵。機器學習最關鍵的錯誤,是沒有這種能力。
文章還說,人類總有一定的道德規範,決定應該與不應該。對於機器學習的研發者,這是一個絕不容易的掙扎。機器學習能夠推理,能夠創新,卻沒有道德原則。文章以開發火星作為引子,逐步引導ChapGPT回答有關道德的問題,摘錄了與ChapGPT的對話,機器坦言「我沒有個人觀點」,「我沒有道德信念」。(以上皆意譯)
這就呼應了前述ABC記者的擔憂。AI會不會取代人員、消滅行業?這不是AI研發者的考慮。研發一個項目,不像香港政府推出一個基建項目,要做風險評估,然後才進行;更不會經過社會的諮詢,才立項研發。前一段時間The Economist有一篇報道,描繪了各個研發商由於ChatGPT的問世,幾乎是不顧一切地搶佔市場,根本顧不上社會影響,也就是不會理會對社會有什麼負面影響。說實在的,他們不會認為那是他們的本職。
沒有道德,科技走向何處?
製造虛假訊息,記者直言會不會造成一個虛假社會。Sam有點迴避,說除非是在極權國家。其實假消息的傳播,最厲害的是美國,根本就不是政府可以控制的。不是有「後真相社會」的說法嗎?記者則直指2024年的美國大選,言下之意,會不會因為AI的使用,發生放大了的特朗普效應。
機器會不會取代人類?記者與Sam的對話,把人類的智慧,等同於理性的智力。因此認為當機器全面掌握了人類的智力,就有可能替代甚至超越人類。Sam含混其詞,對於機器可以超越人類,只是說不排除這個可能。把人類的能力,歸結為理性的智力,那是美國科技開發商的基本假設。他們會認為,遲早機器可以有情感;在他們的潛意識裏面,情感也不過是智力。這與亞洲甚至其他歐洲國家的認知,很不一樣。
這裏提出了兩個我們不得不關心的問題。第一、科技的發展,有沒有道德規範?誰來規管?最近香港有因為基因改造而出現的事件,早年在蘇格蘭造出的人造羊Dolly,就引起了科學界對於基因改造的自律共識。其實,基因改造的負面影響,遠遠超過胚胎的改造。遠一點的如原子彈,除了殺戮,沒有任何其他功能,而且殺戮的對象都是平民。這樣的科技,人類是否應該任其發展下去?
第二、作為科技發展的承受者,我們沒有能力去影響科技發展,就要考慮,是否可以充分發揮其好處。這倒不一定是「逆來順受」;勉強接受,一定不會有好結果。目前看到香港有不少教師,或多或少在試用生成式AI,也產生出不少出人意表的教學效果。可以說是一種「為我所用」的態度,也許這正是香港人的「執生」精神──任何環境,都可以「危」中創「機」;任何工具,都可以用來產生正面的效果。
原刊於《信報》,本社獲作者授權轉載。