近年來,顏臉識別技術引發不少爭議,主要是大家愈來愈關注隱私和資料保護問題。不少人每天都使用顏臉識別技術來解鎖手機、授權付款,在辦公室進出和機場安檢方面,該技術也正開始使用。
然而,大家也開始質疑顏臉識別技術的道德性、準確性和可能引發的問題。麻省理工學院的一項調查發現,顏臉識別技術可能在性別或種族上存在偏見,原因很可能是採用了失衡的數據輸入。去年另一項研究中,28位美國國會議員被錯誤識別成罪犯;美國一些城市甚至已開始禁用顏臉識別技術,連警方也不容許使用。
以上情況並不令人意外,因所有廣泛應用並對生活影響深遠的新技術,都會面對類似問題──由技術的準確性、應用時需先與受影響者達成共識、法律責任,到應用倫理等,既要確保合法應用,又能尊重個人權利。然而,人工智能(AI)和深度學習並不一定會成為侵犯個人隱私的工具。
顏臉識別背後的AI技術,其實還有更廣泛應用,除識別人物外,按不同應用及運算法則,還能用來探測臉部及其特徵,並可預測個人健康、情緒和精神狀態等。當中,最有趣的可能是臉部分析。
臉部分析可以分析圖像和視訊,提取其中特徵,以識別性別、年齡,甚至是身體品質指數,現時該技術已被用來測量心跳、血壓,甚至探測糖尿病、心臟病或認知障礙症的初期徵兆。
有保險公司正運用臉部分析來簡化保單額的計算。透過該技術,毋須健康檢測,就能測量出個人的健康狀態、生活方式和預期壽命。在健康保障領域,顏臉識別還有眾多的應用,例如自動追蹤病人的身體情況、情緒,並探測其行為、身體發展和精神上的失調問題。又例如在零售業,能理解消費者的情緒非常重要,可有助於零售商掌握消費者對商品的態度。
AI和機器學習有能力徹底改變人類的工作和生活方式;改變公司的業務方式,為客戶帶來史無前例的便利、創新的產品和服務。便利和創新的背後,往往有犧牲隱私、道德、公正的質疑。當AI為我們的生活作出重要決定的時候,它需要得到我們的信任。我們需要一些機制,讓使用者信任AI系統的推薦、預測和決定的內容,當中要有解釋的過程。
無論是顏臉識別或臉部分析,都需要公正的AI演算法,但其實所輸入的訊息資料是否公正、足夠和無偏差,都會影響系統的決策、預測和分析的準確度。因此,最重要是確保在機器學習中,只使用高品質無偏差的資料。
香港電腦學會人工智能專家小組召集人
作者:陳漢偉