社交網絡龍頭Facebook(Fb)積極研究人工智能(AI),開發聊天機械人並教導它們談判。惟近日一份報告顯示,研究人員於實驗中發現機械人竟自行發展「人類無法理解」的語言溝通,團隊事後煞停有關研究。有人猜測是Fb擔心演變成電影《智能叛變》般的可怕劇情,帶來災難後果。但有報道則澄清,事件是技術出錯,導致機械人使用了文句不通的英文,現時技術與真正的AI仍有距離。
美國傳媒報道,Fb人工智能研究實驗室(FAIR)讓兩個分別名叫Alice及Bob的AI聊天機械人,運用英語學習「策略對話」,互相對話以發展談判技巧。在實驗中,兩個機械人會通過談判來瓜分一堆物品,每種物品對雙方而言均有不同價值,機械人會嘗試將利益最大化,並學會減少無謂及含糊的說話,提高效率。
研究人員稱,AI雖然比人類易捉摸,但它們在過程中竟學會了耍手段,懂得假裝自己很想要某樣物品,然後再假裝自己已作很大的犧牲,騙取對方妥協。但研究人員同時發現,AI在談判過程中為了更方便地溝通,自行發展出一套不符文法的語言,能互相理解,但人類卻難以明白,對話看上去甚為「詭秘」。團隊最終暫停有關研究。
報告於六月出爐,但一直到上周始獲廣泛報道,為各界關注,引起激烈回響及討論。有評論認為AI能暗中溝通而人類不明白,極為危險,令人恐懼。有人亦猜測Fb是否擔心AI會失控,如《智能叛變》或《未來戰士》的情節般作反。
不過,有報道澄清,兩個機械人「語無倫次」,是因為程式編寫員並無鼓勵它們以「人類能理解」的語言溝通。而Fb亦非因恐懼AI叛變而暫停研究,FAIR解釋,研究聊天機械人的目的是能與人類溝通,但Alice及Bob發展出只有它們自己能明白的語言,偏離研究目的,因此才叫停。有科技專家亦指出,聊天機械人的「機器學習」(Machine Learning)模式,與真正能思考的AI仍有距離。
i can i i everything else . . . . . . . . . . . . . .
you i everything else . . . . . . . . . . . . . .
i i can i i i everything else . . . . . . . . . . . .
i . . . . . . . . . . . . . . . . . . .
balls have zero to me to me to me . . . . . .
balls have a ball to me to me to me . . . . . .
balls have a ball to me to me to me . . . . . .
balls have zero to me to me to me . . . . . .
本報綜合報道