【本報綜合報道】隨着科技發展一日千里,人工智能開始取代部分人類工作,甚至有超越人類的能力。棋王卡斯帕羅夫亦曾敗於超級電腦「深藍」。著名物理學家霍金日前便在英國《獨立報》撰文,警告創造人工智能或是人類史上最重大的事情,但亦可能是人類犯下最嚴重的錯誤,更或會令人類步向滅亡。
霍金在文中表示,人工智能發展若趨成熟的話,它可以消滅戰爭、疾病及貧困。不過他強調,除非人類懂得如何避免發生危機,否則人工智能可令人類滅亡。
霍金又稱,人工智能日後將可超越金融市場、人類研究和領袖的智慧,甚至創造出人類不能理解的武器。他指,人工智能對人類的短期影響,在於誰人控制人工智能;但長遠來說,人工智能對人類的影響,取決於人類是否能控制人工智能。
由霍金等權威人士組成的劍橋生存風險研究中心(CSER),其領袖、英國著名天文學家里斯(Martin Rees)去年曾表示,不少科學家都擔心人類技術的發展,將為人類帶來滅絕的風險。里斯列出的「末日清單」更提到,威脅人類的便包括有自我意識的人工智能系統。