產經

名家筆陣:企業大語言模型應用利弊

由大語言模型驅動的聊天機械人,存在安全風險。 由大語言模型驅動的聊天機械人,存在安全風險。
由大語言模型驅動的聊天機械人,存在安全風險。
不少企業包括銀行和金融機構,一直依賴基於範本規則或功能表設計的聊天機械人提供客戶服務。然而,這類聊天機械人限制客戶只能輸入特定的問題內容,並給出程式預先設計的答案輸出,因此這類聊天機械人無法提供客戶個性化回應。
基於生成式人工智能(Generative AI)大語言模型技術例如GPT-4開發的聊天機械人,能改變這一現象。大語言模型驅動的聊天機械人,能為客戶提出的諮詢或請求,快速提供類似真人回應的答案,為每位客戶打造獨特體驗,從而提高客戶滿意度和忠誠度。
答案或存偏見 涉安全風險
儘管大語言模型在客戶服務方面具有巨大的潛力,但也存在一些限制與挑戰。大語言模型產生的答案,通常基於語法和上文下理,故模型的輸出可能會讓人誤以為有充分的證據支持,但實際並非如此。當大型語言模型被問及未經相關數據訓練過的問題時,就可能會產生混亂或不準確的答案,這種錯誤回應通常被稱為「人工智能幻覺」(AI Hallucinations)。
此外,用於訓練大語言模型的資料,主要是來自互聯網上的來源,這些資料可能包含偏見的內容,涉及種族、性別、性傾向以及文化等多個維度,當中一些可能含偏見的內容會導致客戶得到差強人意的回覆。此外,用於訓練大語言模型的數據,可能涉及個人私隱或版權問題,亦可能未先得數據擁有者同意,又或內容與主題不合適等。
大語言模型驅動的聊天機械人,也存在安全風險,容易被黑客用於各種惡意行動。例如黑客可以在提示語中注入攻擊詞,影響大語言模型的輸出。「Do Anything Now(DAN)」是一種提示語注入攻擊,攻擊者可以透過這種方法,指使大語言模型生成偏離預定義規則的回應。
為了降低風險,企業對大語言模型應進行演算法審計,評估模型的行為並確保其符合公平、私隱、道德規範和安全的標準。
各國紛制訂內容合規指引
大語言模型的演算法審計仍處於早期階段,因此,一些國家已開始制訂相關指引,協助企業審計大語言模型和基於AI生成的內容合規。例如,美國國家標準與技術研究院(NIST)於今年1月發布了AI風險管理框架,英國政府於3月發布了AI監管的創新路徑政策檔,中國國家網信辦也於7月發布了生成式人工智能服務管理暫行辦法。
毫無疑問,採用大語言模型能為企業帶來了獨特的機會,如果運用得當,能帶來卓越的顧客體驗和滿意度。然而,與任何新興技術一樣,大語言模型也會為企業帶來新的挑戰。因此,人們必須深入了解這項技術的優勢和限制,並在開發和使用大型語言模型時,遵守相關的負責任AI原則和指南,以充分發揮其潛力,並將潛在風險和危害降至最低。
香港電腦學會人工智能專家小組召集人 戴劍寒
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500
人人做記者