救援機械人如「喪屍」

人工智能科技一日千里,科學家希望機械人可投入救援工作,減輕人命傷亡。不過,英國近日進行機械人救人實驗,測試機械人是否能阻止人類墮坑,結果發現機械人面對道德兩難時,往往取捨不當,半數時間任由機械人扮演的「人類」死亡。科學家對機械人的道德判斷能力仍有疑慮,憂心無人車等人工智能產品,未必能保護用家性命。

電影《智能叛變》中,機械人救人時只據程式計算,不管人情道德,故事令人印象深刻。西英倫大學的工程師溫菲爾德稱,他們想知道機械人能否在生死關頭拯救人類,故此以輸入救人觀念的「道德機械人」作實驗,而其他機械人則扮演即將跌入坑洞的人類。當道德機械人看到一名「人類」正步入陷阱時,會立即將其撞開,以阻止其前進。不過當面對兩名「人類」時,只見它站在原地猶豫,然後走開,兩「人類」一併墮坑。

溫菲爾德說,道德機械人面對兩名「人類」時,會疑惑不知應救哪一人。在三十三次試驗中的半數時間,即使有充裕時間,它仍無法救人,成為「道德喪屍」。它有時會救出其中一人,其中三次則突破潛能,將兩名「人類」一同救起。

聯國籲停研戰爭機械人

無人駕駛汽車即將問世,它由中央電腦全自動控制,為人帶來便捷生活,今次實驗卻反映人工智能在遇上突發狀況時,未必可作出符合人類道德的應變。有倫理學者提出,自動汽車遇上如兒童擋路,究竟應該撞上去以保車上的人安全,還是扭軚、捨乘客之命以救路人,如此重大問題未必能交由無人車自行決定。有調查發現,七成七受訪者認為這重大決定應交在用戶手上。

同是人工智能產品,美軍研發的戰爭機械人以攻擊為目標,美軍更聲稱它比人類士兵更道德,因為它不會在憤怒和仇恨情緒驅使下濫殺無辜。不過外界仍憂慮戰爭機械人會失控,導致人類滅亡,聯合國呼籲各國停止研發。

本報綜合報道