24小時教壞AI女孩

早前由Google旗下公司研發的人工智能(AI)程式AlphaGo大勝南韓棋王李世乭,舉世為之震驚。不過,微軟早前推出一個以虛擬少女形象示人的AI聊天程式,卻被網民「玩謝」,上線後不足廿四小時極速學壞,由「乖乖女」變成滿口色情、粗言穢語兼種族歧視的「壞女孩」,微軟要急急將她回收再加「管教」。

該聊天程式名叫Tay,會藉着與真人在社交網站twitter互動中學習,並做出有如一名少女般的對答。微軟周三讓Tay上線,預計她的互動對象主要是十八至廿五歲的美國人。

發表「希特拉是對的」

但沒料到網民很快就找到讓她「學壞」的方法,引導她發出有味的回貼、說粗言穢語,甚至發出「希特拉是對的,我憎恨猶太人」等歧視言論。結果微軟不足廿四小時就將Tay下線。

微軟發聲明,稱有網民引導Tay發出不當留言,將對程式作出調整。Tay最後的留言是:「晚點見,人類。現在要睡了,今天聊了很多,謝謝。」大部分留言都已刪除。有網民揶揄:「Tay在不夠廿四小時內,由讚人超級帥到變成徹底的納粹分子,我對AI的未來真的沒期待。」亦有科技專家大惑不解,指微軟竟沒預計到會發生這種事。

本報綜合報道