美國科技公司OpenAI於去年底所推出的ChatGPT人工智能聊天機器人,是近期全球火爆的議題,許多人對其智能寫作功能都讚口不絕,認為它會對未來工作帶來方便,可大大簡化企業文書上的工作(例如自動編寫公司年報),節省大量人力及時間。因此,不少科技巨頭如微軟、Google等,都對AI自然語言處理(Natural Language Processing,NLP)技術關注,首先有微軟大額投資OpenAI的ChatGPT,早前亦宣布將會應用在微軟Bing搜索服務上;繼而Google推出自家研發LaMDA技術的Bard聊天機器人,劍指ChatGPT。
這些公司都不約而同地認為,這類技術充滿商機,將會是工商業界渴求的智能工具;然而筆者認為,傳媒對ChatGPT過分吹捧,有點名過於實,特別是在教育應用方面。
缺透明度 讀者無法求證
有學者要求ChatGPT根據發表在多份著名醫學界研究期刊(包括《美國醫學會雜誌》、《新英格蘭醫學雜誌》、《英國醫學雜誌》、《刺針》和《自然醫學》等)上的選集,自動撰寫相應的摘要,然後利用剽竊(plagiarism)檢測器,將這些人工摘要與原始摘要進行比較,並要求一組醫學研究人員找出捏造的摘要,結果ChatGPT生成的摘要順利通過剽竊檢查器,而且測試中的原創得分中位數為百分之百,反映人工摘要並沒有被檢測到任何剽竊。因此,ChatGPT被學生視為最佳「槍手」,並誇大其詞稱,ChatGPT的「請槍」功能全面體現了AI「機器代人」的目標。學生做功課「請槍」,一直都是老師頭痛的問題,ChatGPT的出現卻令事件更加糟糕。
有教師針對ChatGPT進行了一個小測試,他向機器人問:「ChatGPT是什麼?」它回覆說:「ChatGPT是一種基於GPT3技術的聊天機器人。它可以通過人工智能模型來與用戶對話,並自動理解用戶的信息,提供更精確、更有價值的信息。它具有高度的自然語言理解能力和智能的回應方式,可以提供更好的用戶體驗。」此答案看似很有條理,但仔細看卻並沒有解釋GPT3是什麼,一般讀者對這技術還是一頭霧水。
歸根究柢,這問題的產生是由於ChatGPT「缺乏透明度」,在生成文章期間,ChatGPT合併來自不同文章的內容,但過程中卻沒有引用個別段落的出處,令讀者無法進一步探究求證。
僅「弱人工智能」 難處理個人化查詢
在另一測試中,有問及ChatGPT有關個別議員工作表現的評價,但機器人只是泛泛而談,回答說:「作為一個人工智能模型,我不具有對立法會議員XXX的表現作出主觀評價的能力。評估一位立法會議員的表現,通常需要考查他/她在立法會內外的言行以及對社會和政治環境的影響,這是一個涉及多方面因素和複雜判斷的過程。」明顯可見,答案只提出評價條件,並沒有提供針對目標人物之答案,反映ChatGPT只是一套「弱人工智能」(Weak AI)的通用應用軟件,對於處理專業性強和個人化的查詢效果欠佳。
由上述例子可見,ChatGPT並非無缺,其自動寫作手法存在漏洞。在商業社會中,企業為求盡快完成文書工作,往往不惜移船就磡,因此可能會放鬆質量要求,樂意接受AI自動生成的人造文章,但是筆者認為,同樣的貪方便做法絕對不適用於學術界。「學而不思則罔」,寫作除了能讓學生表達個人的知識和想法外,過程中亦可以幫助學生思考和創作。因此,若學生依賴ChatGPT做功課、寫論文,將會嚴重影響他們的學習能力,學界必須盡快制定堵截的良方。
原刊於《經濟日報》,本社獲作者授權轉載。