要聞港聞

AI對答靠數據建構 用家不慎 私隱恐洩漏

ChatGPT等人工智能和聊天機械人於近年崛起。 ChatGPT等人工智能和聊天機械人於近年崛起。
ChatGPT等人工智能和聊天機械人於近年崛起。
專家稱安全告急 官員促遵法則
近期人工智能(AI)和聊天機械人的崛起,例如「ChatGPT」等,已在各地及各行各業引起關注。個人資料私隱專員鍾麗玲昨表示,雖然聊天機械人幾乎可「秒回」不少提問,並以理性和有說服力的方式回答,但人工智能有高度的學習能力,並以演算法將用戶所提供的資料儲入資料庫中,從而引起資料外洩的風險。她建議,企業在開發人工智能時應遵守《開發及使用人工智能道德標準指引》和相關法例。
鍾在電台節上指出,與早期主要透過分析大數據作出決策的人工智能不同,聊天機械人的「神奇」之處,在於它們可以秒速回應用戶的請求和問題,並根據所給予的提示,像人類般提供看來理性、完整及令人信服的回應。不過,她解釋,生成式AI的運作建基於「深度」學習技術,當中涉及使用大量的原始資料或數據作為訓練數據,而這些資料或數據可以包括敏感的個人資料,可以是由用戶所提供的,或是由互聯網收集及複製的。
敏感資料經上載可被利用
她憂慮,若你的朋友在你完全不知情、遑論同意的情況下,將你的姓名、職位、住址、身份證號碼,甚至信用卡號碼提供予聊天機械人作為對話的一部分,視乎有關程式的演算法,這些個人資料便可能會被儲存到機械人的資料庫中,並可能成為它回答下一個用戶的材料。她補充,最近有些員工因為使用聊天機械人而將公司機密資料,如公司系統原始碼、甚至一些醫療紀錄放入聊天機械人的系統裏,引來企業機密資料和私隱外洩的憂慮。
近期全球超過27,000人,當中包括科技專家,聯署一封公開信,呼籲所有人工智能實驗室6個月內暫停訓練更強大的生成式AI系統,並在這期間共同制訂和實施一套安全守則。鍾認為,科技公司,尤其是人工智能開發科企,應有責任確保人工智能系統的數據安全,相關科企應檢視及評估他們的人工智能系統在運作上對數據私隱及道德的影響,並確保遵從相關法例或適用的指引。
私隱專員公署於2021年8月發出《開發及使用人工智能道德標準指引》,協助機構以保障私隱、符合道德及負責任的方式開發及使用人工智能系統。鍾建議,機構在開發及使用生成式AI時,除了須要符合《個人資料(私隱)條例》的規定外,亦應該遵守這些原則,以減輕私隱及道德風險。
鍾麗玲建議機構在開發及使用生成式AI時該遵守相關原則。鍾麗玲建議機構在開發及使用生成式AI時該遵守相關原則。
鍾麗玲建議機構在開發及使用生成式AI時該遵守相關原則。
第一手消息請下載on.cc東網 iPhone/ iPad/ Android/
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500