生成式AI︰毀滅人類?

無論GPT工具是好是壞,來勢洶洶,任何人都難以力挽狂瀾,更何況是我們教育工作者。我們教育工作者可以做些什麼?

關於生成式AI的討論,幾乎所有的主要刊物都會插一嘴。這裏略舉一些例子。美國的《高等教育紀事報》(Chronicle of Higher Education)有兩篇文章引起了注意。早一點,3月6日的一篇,標題已經說明了主題:〈ChatGPT已經無處不在:愛之、恨之,學者已經不可以視而不見〉(筆者中譯)。回顧起來,那是一種預警。

一個月後,4月5日的標題是〈ChatGPT會不會改變教授們如何測評學生的學習?〉文章頗長。敍述了學術界從恐懼學生的濫用,轉變到運用GPT促進學生學習。

然後收集了許多ChatGPT「好友」的正面觀點,講述他們如何看待GPT對學生學習的幫助,提高學生學習的主動性,讓學生在更高的層次學習等等。這些觀點,與本欄前數周的觀點相若:關鍵在於讓學生掌握這門新的科技。

但是在正面觀點的敍述過程中,卻道出了許多刺中要害的一些潛台詞。就像文章的標題所隱含的,高等教育感到的威脅,主要在測評(包括考試與作業),問題往往不是出在新的科技,而是測評學生的觀念和方法。

比如說,假如測評的只是「嘔吐」課上講過知識,那GPT的代答也就變得順理成章。假如不是在極端監控下測評學生,學生本來就可以運用任何輔助的辦法,包括不誠實的「請窗」、購買論文;這種「作弊」,幾十年來都已存在,已經不是什麼秘密;這種作弊,損失的是學生自己。但是假如測評的要點是學生創作或者製作的過程,需要學生表達這些過程中自己的貢獻,運用了GPT又有何不可?而這些過程,剛好是學生最需要的學習。再一個例子,在大學已經非常普遍的集體作業,也會讓GPT的輸入,變成次要的元素。

若要評估學生的創作能力,運用人工智能可以嗎?(Shutterstock)
若要評估學生的創作能力,運用人工智能可以嗎?(Shutterstock)

人工智能,毀滅人類?

另外一篇令筆者動容的是牛津大學兩位學者,在英國下議院科技委員會上發言。論述了AI發展正面和負面的影響。其中一點,是他們認為,若無規管,AI終有一天會殺死我們每一個人──AI could one day kill everyone。

科技能夠「取代人類」,這提法早已有之;筆者不以為然,因為提出的西方論者,都是把人類的智力,當成是智慧的全部。另外的很多論者,都認為情感、道德、價值觀……等等(以下就歸納為「道德」吧),都不屬於機器可以模仿的範疇。然而,兩位學者提出的其中一點,卻是筆者從未想到的。

他們的論點:「AI正在試圖捕捉使人類特殊的東西,這些特殊的東西已經導致人類完全改變了地球的面貌。」「因此,如果科技能夠捕捉到這一點,那麼當然它會對我們造成風險,與我們對其他物種造成的風險一樣。」

筆者一直認為人類超越機器的,是上述廣義的道德。但是,的而且確人類滅絕其他物種的過程,卻恰恰就是沒有了應有的道德。

本欄前文(3月24日)曾經引述,ChatGPT在與Chomsky的團隊交往的時候,坦然承認沒有「個人觀點」,也沒有「道德界限」。地球今天面對最大的的威脅,環境污染、氣候變化、戰爭惡鬥……不就是因為人類沒有了道德的底線。純粹以數量、速度、效率作為全部目標,而不惜爭奪、霸佔、欺詐、殺戮……可謂不擇手段。

上面提到「人類特殊的東西」,豈非就是「不擇手段」!人類可以不擇手段地毀滅自然界的物種,機器完全可以模仿人類的「不擇手段」而最終毀滅人類。

人類滅絕其他物種的過程,恰恰沒有應有的道德。(Shutterstock)
人類滅絕其他物種的過程,恰恰沒有應有的道德。(Shutterstock)

科技研發,可有規管?

這樣想下去,看看世界的今天,不必等機器發揮它的智能,今天有些人類不也正在如此對待另外的一些人類嗎?殺戮別國的人類,迫害本國的異族、以殺絕代替競爭、以軍事代替政治,都不是天天在出現嗎?機器智能的威脅,不過是人類殘酷的重演!機器也可以比人類加倍凶殘。近日很多人提起原子彈,不就是一個鮮明的例子嗎?「不擇手段」,機器可以遠勝人類。

兩位學者說,這是一場「確實的軍備競爭」(a literal arms race)。的確,地緣政治嚴峻之際,難以想像各國政府不會運用新的AI科技,研發新的武器。真是一言驚醒夢中人,我們在關心生成式AI對工作、生活、教育的和平影響之際,有沒有思考過AI會引發的也許是更殘酷的人類戰爭?起碼,在殺人不見血的媒體,AI科技可以大展拳腳。因此,兩位學者呼籲AI應該有類似核能的全球性規管。

這就難免想到:無論GPT工具是好是壞,來勢洶洶,任何人都難以力挽狂瀾,更何況是我們教育工作者。我們教育工作者可以做些什麼?筆者有幾點想法。

第一、作為學生,GPT工具勢必成為他們生活的一部分。GPT看來不會是一陣風似的時髦,而會繼續發展、膨脹。應該盡快讓學生認識這個工具;而認識的途徑就是使用。使用,就是讓學生放膽與這個工具互動;互動的目的,是讓工具為學生自己服務;服務,不是為了分數,而是幫助自己學習。前文(3月10日)提過,就是把GPT工具作為學生的「陪練」、「個人教練」。這個認識過程,就是學生使用的過程。還是那個原理:使用就是學習。

教育工作者應該讓學生放膽與人工智能工具互動。(Shutterstock)
教育工作者應該讓學生放膽與人工智能工具互動。(Shutterstock)

學習科技,豈無道德?

第二、要學生學會使用GPT工具,首先當然是教師要認識和學會使用,而難以置身事外。GPT工具的特點,唾手可得(除了新的一些產品要付費)。也是通過使用而認識,也是一個學習過程。筆者的經驗,也是許多教師的經驗,是不斷測試工具的能力。第一步可以提出問題,能知道它的答案的準確性。也就是認識到,它是會提出錯誤答案的。第二步可以提出任務,(一)看它是否可以完成你提出的任務?(二)看你需要怎樣提出任務要求?(三)對於它生成的「任務」,你還需要做什麼人手加工?第三步,直接要求工具闡述自己的能耐與缺陷。

第三、這個過程中,很多教師自然而然地就在教學中應用了GPT工具(出題、備課、批改……等等)。也在這個過程中,很自然就把學生也拉進這個過程,師生同時研究如何處理GPT工具。也在這個過程中,學生在不知不覺中坐上了學習的「駕駛座」,主動去運用工具。也就是達到上面的第一點。值得注意的是,這個過程,並不一定牽涉到課程的變革,而是產生學習過程的漸變。

第四、我們在不斷強調STEM的時候,如何時時刻刻也輔以情意、道德、價值觀的元素。每一項科學原理,都盡量與實際生活聯繫,這已經是香港教師在教學中普遍的努力方向。但是可否也不迴避地討論這些原理在和應用中的可能負面影響。就像醫生開藥,既要說明正面的藥效,也必須說明可能的副作用。例如,在STEM課程中製作機器人,在理性探討機器能否取代人類的同時,也探討允許機器取代人類的legitimacy(應該不應該);在上述學習應用GPT工具的同時,也探討這些工具可能引起的負面甚至毀滅性影響。其實,這也應該是所有課程需要注意的:能夠即時想到的,例如講貨幣的時候,同時講解虛擬貨幣與金融詐騙;講基因的時候,同時探討基因改造的倫理道德與農業霸權;講歷史的時候,也探討發展核武的「正義性」……這些討論,不涉政治、是非、責任、立場,而是探討科技發展與人類命運的關係。

本文為文時,讀到《信報月刊》本年4月版以GPT為封面標題,裏面有數篇頗有見地,但論點各異的文章,值得一讀。

原刊於《信報》,本社獲作者授權轉載。

程介明