公布生成式AI指引 監管風險4層劃分
害市民安全須禁 開發者要負法律責任
人工智能(AI)發展一日千里,過去一年大量AI生成式應用程式面世,使用門檻大大降低,功能則愈來愈強大。各界關注本港遲遲沒有相關規管,數字政策辦公室昨日公布《香港生成式人工智能技術及應用指引》,就多個行業包括金融、醫療、教育、新聞等使用生成式AI提出不同建議。建議中的管治框架建立了4層風險分類系統,制訂不同的監管措施,如危害和影響市民安全的用途屬最高層級的「不可接受風險」,相關系統應被禁止,而開發者亦須承擔法律責任。數字政策專員黃志光冀指引可鼓勵AI技術創新應用的同時減低風險,以促進生成式人工智能在本港的發展。
生成式AI是指利用各種機器學習算法,讓電腦系統能夠根據大量數據,以及複雜的人類意圖和指令,自動生成內容資訊,例如文字、圖像、音訊等,其技術研發至應用的生命周期中,涉及技術開發者、服務提供者、服務使用者這3類重要角色。全份指引共有33頁,數字政策辦公室指,生成式人工智能模型仍然存在諸多技術局限,或最終導致生成有害內容,包括「模型幻覺」會生成與現實世界實際情形不符的訊息、「模型偏見」會令生成內容或作出決策時,存在特定偏好及傾向。
指引將使用生成式AI的風險分為4個層級,會根據潛在危害程度制訂相應監管措施,如危害和影響市民安全的用途或潛意識操控等對社會構成生存性威脅的應用,屬於最高層級的「不可接受風險」,相關系統應被禁止。
醫療診斷自動駕駛 須先評估
醫療診斷或自動駕駛等關鍵性基礎設施的系統則屬「高風險」,必須通過合規評估。至於對社會影響屬「有限風險」的系統,例如招聘工具或教育類人工智能,需要履行透明度要求。屬於「低風險」應用的垃圾郵件過濾器或創意工具等,只需進行自我認證。
倡學生用於課業前問准老師
指引又就各行業使用生成式AI方面提出不同重點建議,其中醫療方面,使用生成式AI輔助診斷時應非常慎重,生成內容應不能直接作為診斷報告,應由執業人員審核後作為參考。教育方面則不建議普遍禁止學生使用生成式AI,但在課業中使用應取得教師的同意,同時確保生成內容應能明確被識別,避免用於有違學術誠信的用途,用於批改作業和試卷時應確保最終結果經由人工審核。
指引提到使用生成式AI時在「防範潛在風險」與「保障言論自由」之間取得平衡,認為在維護基本法保障的言論權利同時,當AI技術被用於非法活動時,例如生成「製造爆炸裝置或施襲手法」內容、猥褻內容及擾亂公眾秩序等行為應被禁止。黃志光稱,指引是活文件,除了今次第一個版本推出可以讓市民和業界採用,亦會定期收集意見和更新,促進業界與公眾以安全及負責任的方式,發展及應用生成式AI技術,在鼓勵人工智能技術創新應用的同時,減低風險,以促進生成式人工智能在香港的普及發展。
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500