編按:「相約科大,遇見未來」大學金融科技教育論壇由香港科技大學、FDT金融創新工場和微軟亞洲研究院聯合主辦,由蜂投證券、香港科技園、香港應科院合辦,於2017年11月24日假香港科技大學賽馬會高等研究院舉行。
當日,香港科技大學工學院院長鄭光廷教授主持「金融科技中的AI人工智能」圓桌論壇,嘉賓有FDT-AI創始人及CEO柳崎峰博士、微軟亞洲研究院閆鶯博士、香港應科院前署理總監雷志斌博士、滑鐵盧大學教授Prof. Ihab Francis Ilyas和香港科技大學BDI大數據研究所主任楊強教授。論壇內容節錄如下:
鄭光廷:私隱和保安問題對於金融業和很多領域來說都是核心問題。現在,AI差不多可以模擬任何東西,比如說模擬真人交談,而模擬起字跡來比人手寫的還要像真,可以比我們更完美地完成任何東西。那麼,隨之興起的就是詐騙集團。人工智能進入金融領域所帶來的問題要怎樣處理?
金融科技發展要靠各方面的網絡安全和保安措施方可臻善,各位嘉賓在行業裏觀察到什麼,有什麼想法?推動金融科技應用更成熟地發展時,一路上有沒有遇到什麼根本性的障礙?
人工智能的保安防偽和風險問題
閆鶯:我認為你提到的問題可用區塊鏈技術(blockchain)來解決。機械人可模仿真人交談,但無法入侵盜取你的簽名。每一筆交易都可應用區塊鏈技術,核實署名真偽。而且,人工智能技術能幫助人們看到、聽到不一樣的資訊,也能幫助他們下決定。
柳崎峰:人工智能發展得很快,保安措施的更新速度可能相對較慢,不過那很正常,只要留意保安問題就可安心專注推動人工智能更快地發展。
至於署名方面的識別技術是否可靠,工程研發人員一般來說都會相信測試結果。假如以AI識別署名的真偽比肉眼識別來得準確,辨識準確度達不到100%也不成問題。
另一例子是自動駕駛汽車,近年Tesla的自動駕駛汽車出了一樁事故,造成人命傷亡,有輿論怪罪於Tesla自動駕駛程式,但其實自動駕駛技術只要在數據上來說比人類駕駛汽車更安全,就夠安全可靠。
終端用戶的防範意識是保安關鍵
雷志斌:科技應用在每一層也設有保安措施,例如從資料庫到應用項目本身,一直到使用者,專家設計系統時要考慮的每一環都有保安標準可以依從,但是你看政府部門,有公務員把密碼儲存於載有保密資料的同一台電腦裏,那麼一切嚴密的保安措施都付諸流水。
還有很多其他情況,比如說社會工程學(social engineering)層面的保安漏洞:信息加密技術極難破解,1024位元組的信息加密技術發展蓬勃,但是哪一天你收到了電話,騙徒利用社會工程學技巧問你幾個問題,從你口中套出密碼來,那麼再精密的科技也無法阻止你上當。終端用戶的防範意識必須通過教育來提升。
另一方面,有種新興事物需要提高警覺,就是智能合約(smart contract)。人們信任一個軟體可以保證他們一筆實質資金的安全,只是軟體都是工程師編寫的,他們大多沒有接受過相關法律知識訓練,用戶只能主觀地相信這些程式可靠。如果是寫網頁,出現編程缺陷最多令網頁無法載入,但比如說金融科技應用方面一直出問題、令客戶逐塊比特幣丟掉的話,這一切損失誰能叫停?
AI產物不應盲目信任 私隱也掀業界爭議
雷志斌:這是一個潘朵拉的盒子,人人都希望能掌控這些科技:區塊鏈技術、智能合約⋯⋯凡此種種。但是實際操作時,如果任由程式控制一切,就會遇到問題,從金融業規章或者法律層面來說亦然。每個人都應該提高警覺,比特幣一類的產物逐漸變得炙手可熱,潛在風險一定要提防。
Prof. Ilyas:我不太懂金融科技保安問題,但我相信區塊鏈技術有助解決一些這類別的問題。我想提出一個我觀察到的兩難處境。就金融科技而言,我們需要輸入大量訓練電腦用的數據(training data)方可獲得準確的大數據分析結果,但一開始要為電腦提供訓練用的數據,免不了要讓電腦得到你的資料。我一些從事相關研究的同事認為沒人該為私隱耿耿於懷,因為最重要的是以數據訓練出機器的深度學習能力,讓機器分析結果變得更精密。也有一些人嘗試從私隱和「個人資料得到妥善和充分運用」兩者間取得平衡。
騙徒手法層出不窮 機器學習可助科技保安
楊強:那麼,另一點是網絡壞蛋都很聰明,他們也學習人工智能科技的知識,用以犯案。一開始,他們用照片冒充真人,試圖騙過臉孔識別系統,然後金融企業發展出人體感應技術,要求用戶轉動臉部或眨眼來確認是真人,不過騙徒又研究出用短片來騙過識別機器的方法,事情愈來愈複雜。這種科技上的角力只會持續下去,而這種較勁也一直見於人類歷史。你可追溯到二戰時期。電影《解碼遊戲》(The Imitation Game)中,圖靈(Alan Turing)研製了機器來破解德軍的Enigma密碼機。歷史上,這個發明破解了Enigma密碼機,而Enigma密碼機沒有演變為更強的版本。不過,今天來說,破壞保安系統的壞份子會一直適應過來,變得更強,這種演化會持續下去。
要爭佔上風,就要比其他人更早預想到下一步。過去,工程師會設定一些原則來防範科技騙局,比方說某人如果剛在北京使用一張信用卡,但半小時後在香港刷同一張卡,這很可能就涉及詐騙,因為沒有人能在地理上移動得那麼快。現在,這些用來發現問題的原則可以用機器學習(machine learning)的方法來產生,你可以讓機器自動產出100萬個類似的原則,甚至1億萬條這樣的規限。
你可以就空間、時間、行為、環境的正常參數來設定這些原則,用以尋出蹺蹊線索,確保天網恢恢萬無一失。當然,不法之徒可發明更精密的數據模型來反擊,但一切都很有趣。
學生破解Google系統 AI衍生責任問題
Prof. Ilyas:我也可以舉出我的兒子作為一例。他是麻省理工的學生,跟同學合寫論文,談他們如何成功騙倒谷歌的Adversarial Network識別系統網絡,令一隻烏龜從多角度觀看都像一支來福槍。他們擊敗了由數以千計機器連成的、效能最佳的人工智能類神經網絡,但他們只是四個大三、大四的本科生。我當然為他感到自豪,我的兒子也不是壞份子,不會用專業知識犯案,但由此可見,保安漏洞和風險問題顯然易見,不消多說。
鄭光廷:人工智能的確可以讓假的東西看起來逼真無比,於是,偽冒科技、反偽冒和反反偽冒科技都相繼出現。所有研究人工智能的學生既有能力研究正派防禦,又可以發動保安攻擊,這會讓相關工作愈來愈多。我認為更嚴重的是雷博士剛提到的責任問題。為金融科技產品或服務編寫軟件,最後出錯,責任誰屬?
使用軟件前,我們要簽訂服務使用同意書,但沒有人會真的細閱條款。我們點選「同意條款細則」只是為了使用某服務,很輕易就放棄自身權利。不過,如果情況跟生命安危直接相關,或者涉及真金白銀,就無法草率以對。我們未來或會更依賴AI,例如醫生使用AI幫助診斷病情、乘客把生命交給自動駕駛軟件,相信能安全抵達目的地⋯⋯人工智能科技發展會為各方面帶來深遠影響,我希望聽聽各位嘉賓的看法。
當AI慢慢取代以往百萬年薪的專業人士來做關鍵決定,假如最後出錯,該如何理解責任問題?以往可以找到真人問責和開除,但倘若出錯的是AI,我們無法開除涉事的電腦。
依賴AI或會令服務單一 人類可能遭取代
鄭光廷:另外,AI依賴大數據來分析和判斷。如果科技成熟,只要數據是一樣的,理論上不同機器分析得出的專業結論也會一模一樣。比方說,根據金融交易歷史數據來預測投資走向和回報,不同操盤交易員若使用同一款人工智能科技,最終只會向客人推介同樣的投資策略,令金融服務趨向同質化。這不像以前,每個交易員性格不一,願意冒不同風險,對市況有不一樣的理解和投資態度,可向客戶提供不同建議。
現在,假使智能科技幫助人類做的決定出了錯,責任應該誰來負?你認為這是恰當的發展路向嗎?
閆鶯:責任最後還是應由人類來負。我們可以看到,整個體系以數據的質量至為關鍵。一旦數據質量不佳,分析結果便會指向錯的方向,所以人的責任在於要想出各種方法確保數據質量。
鄭光廷:高盛(Goldman Sachs)最近在紐約總部開除了600名交易員,並用人工智能科技取代他們應付日常工作,所以企業並不一定打算讓科技輔助交易員,而是有可能以科技取代他們。
用戶應調整信任度 AI能令專業服務普及
閆鶯:下決定其實跟信心有關,如果信心充足,用戶便可相信AI系統提的意見,但要是該技術或軟件的測試分數不理想,用戶有責任調整自己的信任程度。
柳崎峰:這是一個特別難的問題。今天的論壇與看見未來有關,那我就從這個方向來談談。100年前的人應該很難明白100年後農業投入那麼少、只有那麼少人耕種便能養活這麼多人。同樣,要想像人類在未來做決定時將集中依賴少數的智能系統或機器提供建議的話,我很難明白這代表什麼。
但是就目前發展狀況來說,我們在製造一些機器人,幫助金融專才為更多人提供服務,尤其是普羅大眾,而不再像現時般只有少數很富有的人享有投資建議和金融服務。比如說,現在一名交易員可能在服務200位顧客,但是用了我們的科技後,可以服務2,000人甚至數以十萬計的顧客。我常常叫企業部門主管不用擔心部門會在使用AI後裁減人手或萎縮,情況會相反,屆時需要更多人掌控我們的智能科技機器,為顧客提供更優質的服務。我對此很自豪,但是談及責任問題實在沒有什麼頭緒。
AI的複雜性和公開資源等問題
雷志斌:其實要將人工智能科技與人類相比,還要考慮另一個層面。如果你拿一個人的腦袋來作比較,一台最精密的電腦可能及不上人腦聰明,但是你把1,000台電腦連在一起,它們就會有出乎意料之外的智慧,變得聰明;所以,最大的問題就是這些強大的引擎、機器之間要怎樣協調,這其實是個帶社會屬性的問題。假如你讓10,000台電腦分析數據,它們會產出不一樣的結果,就算讓它們投票,它們也會支持不一樣的意見。就算建立像IBM那樣強大的中央電腦,產出深度的學習方程以後,仍很大機會有意見紛呈的情況,要由我們來決定如何採納一大堆電腦的分析結果、看到當中啟示和智慧。這比我們想像的有更多不穩定因素。眾籌活動的保安問題這個例子也能說明我最擔心的問題,假使1,000人每人投資10,000美元,一切靠智能合約執行,總是有一個人可以匿名地提取整筆資金。智能合約在網絡廣泛使用已成為事實,我們要面對現況。
另外,說到公開資源(open source),這當然是好事,但是,試想一下,科大學生修畢一個課程後已有足夠知識研發系統,用區塊鏈和物聯網技術來把禮物送到他人手中。系統可以找到收件人位置,準確地把禮物送抵目的地,而這樣的程式在網絡上可能是公開資源。那麼,若有人將禮物換成核彈,那傷害也將同樣輕易造成。而且,這些心懷鬼胎的人完全不需要懂得編程,因為這方面的公開資源唾手可得,情況會發展得一發不可收拾,特別令人憂慮。
責任問題可從技術、政策層面解決
Prof. Ilyas:我想回到責任問題。我認為我們已經身處用機器輔助人類做決定的時代,不論我們覺得怎樣,這已成事實。在技術方面的挑戰,電腦科學有一個概念是數據溯源(Data Provenance),意思就是追蹤數據的來源,找到數據質量不好或出錯的根源。重要的不只是數據,還有描述這些數據的元數據。數據溯源方法及管理(Provenance Management)是電腦科學的熱門議題,很多人修讀碩士或博士就是為了解決這方面的技術問題。
此外,責任問題也關乎政策。我們要制定在開除員工以外的和解方式。比如說,AI科技產品出問題,責任肯定在於公司,公司可能要賠償客戶。公司出問題會損失金錢,也就會注重產品和服務質素。我們要用新方法和思維面對智能科技應用時產生的錯誤,我認為當中的技術和政策問題都有辦法解決。
本系列文章:
科大圓桌論壇:金融科技中的AI人工智能
!doctype>