名家筆陣:防AI「學壞」企業須諗計

一提到人工智能(AI),很多人腦海裏還是會浮現電影裏的十項全能機器人,但其實從聊天機器人小黃雞到Siri,再到網購平台的首頁推薦,都屬於AI的範圍。

AI起源於上世紀50年代,是電腦科學的分支之一,主要研究並開發包括機器人、語言識別、圖像識別、自然語言處理和專家系統等領域,應用於模擬、延伸和擴展人類智能的新興技術科學。AI能運用強大的運算能力,對大量資料進行更高效的整理和運算,快速完成人類需要長時間才能完成的工作。

應用頻現異常惹關注

AI面世60多年來一直很「低調」,近兩年卻一下子火紅起來;而急速發展的一大契機,是無論軟件和硬件都便宜了很多,加上雲端科技一日千里,令最短時間內,搜集全世界的海量數據,再無難度可言。

AI最轟動一時的例子,就是AlphaGo擊敗職業棋手。二○一八年三月,CaptHandlebar在推特上發了一段視訊,內容是亞馬遜語音助手Alexa原來能發出詭異的笑聲,但原因不明。一八年三月二十日,Uber公司在美國亞利桑那州坦佩市進行自動駕駛車輛路測,無人駕駛SUV撞死一位女途人。以上種種都令人開始思考AI的安全問題。

其中,最教大家忐忑的,是像AlphaGo的AI,隨着科技發展,會不會具備獨立思維?或者作出各種極端行為?還有AI技術成熟後,是否擁有「價值判斷」和「道德思考」?

耗成本保質素成挑戰

試想像,你坐在一輛由具備道德感的AI操控的無人駕駛汽車時,萬一遇上交通意外,在千分之一秒間,它會不會因為判斷若撞向路人,會引致更多人傷亡,而選擇讓車子衝進河或撞向樹,結果令你犧牲性命?這個假設叫人心裏發毛,但倒是一語道破AI可以進化到甚麼境界。

而除了道德問題,AI竟然也會有歧視和偏見,就更值得令人關注。這當然是它從人類學來的,因為它是在學習人的決定─而人不免會有偏見。

簡單而言,現今AI有兩種,一種是預先寫好的程式,已經設有既定邏輯,由人去控制;另一種是由它自己去學習邏輯。而現時對數據科學家最大的挑戰之一,就是要用非常大量的時間和精力,去確保數據沒有錯誤和偏頗,以免AI「學壞」。故AI另一令人期待的突破點,是可解釋人工智能(Explainable Artificial Intelligence, EAI)。

EAI 發展料日益重要

如今AI已經朝着「機器學習」的方向發展,不再是簡單通過人工賦予幾個指令或者規則,來進行輸入和輸出,依賴背後浩瀚的數據庫,能夠自行在大量資料中,分析出特徵並作出反應,使它們從感覺上更像人類在思考。

問題是當我們讓AI自己學習時,它學到甚麼,其實我們也不清楚,所以我們需要研究AI思考的邏輯是否正確,要能夠了解它們得出某結論的步驟,因此EAI很重要。而因為AI現時有很多不同的程式與演算法,所以最直接的方法,就是採用幾個不同的程式或演算法,對比答案結果的可信性。

陳漢偉 

香港電腦學會人工智能專家小組召集人、香港城市大學電腦科學系副教授

作者:陳漢偉