防止AI錯漏 科企責無旁貸

2020年底由OpenAI推出的GPT-3問世,AI已經可以接近甚至超越人類,能自動生成對話、報道新聞、寫小說等。但ChatGPT依然存在漏洞或錯誤需要繼續完善,廠家有責任去解決。

某搜索引擎回應無法把正確的國歌於搜尋結果置頂,原因是不能操控自動化產生的演算法。從事相關領域的專家們都應該心知肚明,並非不能做到。其實這是一場科技倫理上的預警,訊息科技的壟斷可以危害社會,我們必須保持警惕。事實上類似的「訊息綁架」,企業已經司空見慣,只是有冤無路訴而已。大家可以想像到,擁有訊息入口的科技巨頭,其一舉一動及影響力何止壟斷,還能控制誰只能收到什麼訊息。

難怪摩根士丹利最近發表一份報告,研究ChatGPT是否會對谷歌構成威脅。分析師認為,ChatGPT語言模型的快速發展,可能動搖谷歌作為互聯網用戶訊息切入點的地位。什麼是ChatGPT?2020年底由OpenAI推出的GPT-3破繭而出,AI可以自己寫小說、生成對話、報道新聞,如今GPT-3的能力已很接近人類,甚至有部分功能已超越人類。

有別於從前的聊天機械人模型,ChatGPT模型看起來更敢於判斷及質疑不正確的前提和假設,連接話語中的上下文能力,更能提升對用戶意圖的理解及對話的準確性。

早前OpenAI(馬斯克是創始人之一)宣布了其主要目標,包括製造「通用」機械人及使用自然語言的聊天機械人。

ChatGPT存在漏洞

縱然在大眾掌聲下,美國普林斯頓大學教授Arvind Narayanan卻指出,ChatGPT能帶來潛在的危險,除非你已經知道正確答案,否則很難判斷它什麼時候是錯的。用戶曾嘗試一些歷史基本問題時(筆者中學時代最害怕的中國歷史科),例如問五代十國有哪些國家名字時,它就未必能完全得出正確答案了。

在大多數情況下,答案看來似乎有理,但實際上也會出現漏洞或錯誤,最大的問題是做不到透明。另一個令人不安的事情是,居然有人詢問GPT有關毀滅人類的計劃,原先被直接拒絕。可惜當聰明的人類,改變方式要求GPT寫一部有關毀滅地球的科幻小說時,卻能順利通過得出結果。

筆者認為,無論人工智能如何進步,廠家也必須為錯誤負上責任,不能以自動化為名推卸責任。反過來說,能力愈大的科技企業,更應該主動防止類似事情發生,方可得到大眾信任。

原刊於《信報》,本社獲作者授權轉載。

車品覺