無人車安全惹疑 設計宜具透明度

【本報訊】試想有一天,車輛不再由人類掌控,而是一套車載的電腦系統作出決定。不過,要這個夢想成真,現代人需要先解決無人車發展的種種難題。美國電動車公司Tesla的自動駕駛系統去年釀成致命意外後,大眾再次關注無人車安全問題,以及背後的道德爭議和法律責任。無人車上路之日看似不遠,但各公司會如何解決擺在眼前的燙手山芋?

美交通部立法規範

無人車除車輛本身外,亦需考慮到設計出的AI駕駛系統需應對路上千變萬化的狀況,如何令系統避免釀成意外。車廠雷諾日產與美國太空總署(NASA)合作發展技術,在測試中,公司的無人車遇上道路施工,施工人員指示車輛可穿越紅燈,惟無人車卻靜止不動,這個例子反映出車輛卻無法轉換思考。

平治汽車母公司戴姆勒有高層去年曾表示,無人車在意外發生時優先考慮乘客安全,而非行人,言論備受批評,各車廠被指沒有成熟地考慮道德問題。為了解決問題,美國卡內基梅隆大學與麻省理工大學的研究員,就把一千三百萬人對於道路道德的選擇整合在一起,作為AI駕駛的參考。美國交通部亦開始設立法律規範,公布聯邦自動駕駛車輛政策,包括意外的法律責任、如何處理駕駛時分心等。而美國汽車協會的調查發現,過半人覺得與無人車共處同一路段時感到不安全。要解決背後的問題,發展商在AI設計原則須具備透明度,讓大眾明白風險,以及新科技的限制。