利用大腦潛在知識

大型語言模型(LLM)背後的運行機制到底還代表什麼?也許不像人一樣在思考,但是在部分領域,它表現得像人一樣有邏輯推理的能力,這對於我們未來,就會產生非常根本性影響。

「語言讓我們可以溝通,語言的背後自然蘊含着人類的智慧。雖然人類積累了一萬年左右知識,基本上都被最近20年的科技,通過文字、音頻、視頻給整理下來。

所以,如果能掌握文字及語言,基本上就能破解了人類目前為止『所有』的知識。我們今天還不太理解,大型語言模型(LLM)背後的運行機制到底還代表什麼?也許不像人一樣在思考,但是在部分領域,它表現得像人一樣有邏輯推理的能力,這對於我們未來,就會產生非常根本性影響。」

LLM 實則是超級數據庫

以上是阿里巴巴(09988)前首席參謀長,在最近一個演講「下一個十年」的內容,正好幫助我更確定大型語言模型,明線是類似GPT的智能產品、暗線是把人類的思想邏輯,通過對大量的語料分析,形成強數字化的向量數據庫。這個超級數據庫可以在很多領域幫助人類快速理解一些陌生場景,加強工作效率。

筆者看過Stanford AI Lab一個A/B測試,他們模擬一個陌生(之前不涉及過)的環境,讓機械人尋找一件失物(例如手錶)。在測試A的演算法上,給予LLM模型幫助,測試B卻沒有LLM,分別將會如何?

測試A:LLM可以提供一些可能性建議及策略,以尋找丟失的手錶。例如,它可能根據一些邏輯,以理解屋內傢俬的分布,然後給予合理的搜索方式。LLM並不能直接感知現實的世界,因此無法提供具體的位置訊息或實時的指導。

測試B:在這種陌生的環境下,機械人必須完全依靠自己的策略和直覺來試錯,尋找丟失的手錶會更具挑戰性。

相對B在沒有LLM協助下的隨意搜索,A更加有效率,實驗結果亦證明,測試A比B的搜尋時間快了30%。

如果未來有一天,我們能找到一種方法來訪問、解碼和利用這種大腦中的潛在知識,那麼我們可能會開啟一種全新的學習方式。(Shutterstock)
如果未來有一天,我們能找到一種方法來訪問、解碼和利用這種大腦中的潛在知識,那麼我們可能會開啟一種全新的學習方式。(Shutterstock)

協助掌握我們不知道的知識

事實上,LLM如GPT-4可以幫助我們探索「I know I don’t know」的範疇,它能夠通過處理、分析及生成文本,給予有用的建議和訊息,協助我們了解及掌握我們不知道的知識。

另一方面,「I don’t know I know」範疇更加複雜。這涉及到我們的潛在知識或直覺,即那些我們可能並未意識到自己已了解,但某種程度上我們確實理解的知識。至今,我們還未有完全理解這種知識,到底是如何在大腦中儲存及處理的,更別說將其數碼化或轉化為數學模型了。

然而,可以假想的是,如果未來有一天,我們能找到一種方法來訪問、解碼和利用這種大腦中的潛在知識,那麼我們可能會開啟一種全新的學習方式。這或會大大地提高我們的學習效率,擴展我們的認知能力,甚至改變我們對知識及智慧的理解。

原刊於《信報》,本社獲作者授權轉載。

車品覺