AI武器 藏屠殺危機 霍金促禁絕

現今科技中,最先進的無人機亦需人類輸入指令,懂得自動選擇並攻擊目標的殺人機械人一直只是電影情節。不過,英國著名物理學家霍金等逾千名學者及專家周一發表聯署信,指這類擁有人工智能(Artificial Intelligence)的自主性武器,將在數十年內成真,擔心這類武器若落入恐怖分子或獨裁者手中,隨時出現AI大屠殺人類的情景,呼籲國際社會禁絕AI武器。

人工智能國際聯合會議周一在阿根廷布宜諾斯艾利斯舉行,會前過千名AI及機械人專家,包括霍金、太空探索科技公司行政總裁馬斯克、蘋果公司始創人沃茲尼亞克及美國學者喬姆斯基發表聯署信,呼籲禁絕不用人類干預、便可自行選擇及攻擊目標的自主性武器。

聯署信指,自主性武器只需再過數十年便成真,而非過往想像的數百年,是繼火藥及核武後的第三次戰爭革命。雖然它們可減少士兵傷亡,但同時令爆發戰爭的門檻降低。由於研發成本及難度低,軍事大國要大規模生產它們易如反掌,且將無可避免觸發一場AI軍事競賽。在這情況下,AI武器將如現今AK-47步槍般流通全球。

憂遭恐怖分子利用

令人擔心的是,AI武器流入黑市及落入恐怖分子手中只是時間問題。聯署信認為,獨裁者及軍閥可利用AI武器進行種族清洗及控制國民,甚或用於暗殺及破壞別國穩定。因此,AI軍事競賽對人類無益,聯署信指,有多種方法憑AI令人類在戰場上更安全,而不應用AI研究新的殺人武器。

聯署信最後寫道,AI研究員無意將研究結果用於軍事用途,不希望其研究會令人類反感,使之未能享受到AI的正面影響。他們認為,AI在很多方面上對人類有貢獻,國際社會理應禁絕不受人類控制、用作攻擊的自主性武器。

本報綜合報道