產經

名家筆陣:企業應用GenAI留意風險

企業需為員工制訂明確的AI使用指南,增強安全工具來保護敏感數據。 企業需為員工制訂明確的AI使用指南,增強安全工具來保護敏感數據。
企業需為員工制訂明確的AI使用指南,增強安全工具來保護敏感數據。
ChatGPT與其他生成式人工智能(GenAI)技術發展迅速,甚至已在不少標準化測試中超越人類,例如通過醫學院考試和司法考試;一些企業甚至計劃裁員,並由GenAI取而代之。高盛最近發表的報告指,到2030年GenAI可能會在全球範圍內消除18%的工作崗位。
恐提供錯誤資訊釀災
儘管GenAI有明顯的好處,如有助企業提高效率、生產力和創新,但並非所有企業都願意加入應用GenAI的行列。在大規模採用GenAI前,必須先行解決一些重大的挑戰和風險。
GenAI系統的主要缺陷之一是幻覺(Hallucination),指GenAI系統傾向產生不準確或捏造的訊息,如果這些訊息到達客戶手中,可能會造成災難性後果。例如GenAI系統可能會提供錯誤的產品規格,或「發明」不存在的折扣。原因在於GenAI系統依賴的統計方法,可能會被相似或過時的數據弄糊塗。此外,維護和更新GenAI系統使用的AI基礎模型,對於中小企業來說可能成本高昂且勞動密集,即使定期進行再培訓,GenAI系統也無法保證準確性和一致性。
另一個明顯缺陷,是GenAI系統通常不擅長數學,而只能執行之前受過訓練的計算。此缺陷為金融服務帶來嚴重風險,因為不正確的數字結果,尤其是貨幣金額,是不可接受的。
數據私隱是困擾GenAI系統的另一個問題。使用外部GenAI服務的企業,可能會無意中與第三方共享他們的敏感業務數據,如第三方可能在培訓AI時,存儲、瀏覽或使用這些數據;此舉將可能危及企業的商業戰略、銷售數據或知識產權。即使數據不用於訓練,GenAI服務供應商仍可讀取到,並可能將之合併到其基礎模型的未來版本中。
一家網絡安全公司最近發現,員工黏貼到ChatGPT的數據中,有11%是商業敏感數據;就算是亞馬遜(Amazon)和三星電子,也發生過由於使用GenAI工具,導致內部數據洩露的案例。因此,企業需實施額外的安全措施,以防止和監控數據共享。
法律責任問題待釐清
GenAI系統還會產生所生成內容的版權和知識產權所有權的問題。首先,GenAI系統可能會為不同用戶產生相似的輸出,換言之內容並非獨創,因而欠缺競爭優勢。其次,根據美國版權局的規定,只有人類作者的原創和創造性作品,才能獲得版權。第三,使用GenAI時存在侵犯現有版權和剽竊他人創意的風險。目前,法律將如何適應GenAI系統創建的新內容仍未有定案。
圍繞GenAI系統的另一問題,是人工智能倫理。由於GenAI系統從各種來源學習,它們可能會承襲了一些偏見和成見,從而導致對某些群體或個人,生成出不公平或歧視性的內容。
儘管存在某些顧慮,GenAI仍可為企業提供明顯的生產力優勢,例如文檔和電子郵件編寫、創意生成、演示文稿設計和技能獲取等。企業只需正視問題,確保他們為員工制訂明確的AI管治和使用指南,加上增強安全工具來保護敏感數據。當然,企業還需要考慮使用GenAI可能令員工失業的影響。
香港電腦學會人工智能專家小組顧問 陳漢偉
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500
人人做記者