蘋果偵測用戶兒童色情照 30張或以上始審查
【本報綜合報道】美國科企蘋果公司日前宣布將為美國版iPhone推出新軟件,透過掃描用戶上傳至iCloud的圖片偵測涉及兒童色情的圖像,惟引起侵犯私隱及政府監控的爭議。該公司上周五公布更多計劃詳情,包括只會在偵測到30張或以上相關圖像才會進一步審查,希望消除外界疑慮。
蘋果公司舉行簡報會,發布名為《蘋果兒童安全功能的安全威脅模式檢視》的新文件,提供更多偵測涉及兒童色情圖像的計劃詳情。當中提到,為了減低誤報的可能性,公司在初期會設定上述30張的門檻,假設成現實行為最惡劣的情況;一旦達到門檻,操作系統便會通知公司展開人手審查,並可能向政府報告,但會隨着系統改進而逐步降低門檻。
該公司又強調,只會偵測被多國標記的兒童色情圖片,確保所有手機上偵測圖像的列表相同,不會針對特定個人,而操作系統將由第三方公司公開審計。負責軟件工程的高級副總裁費德里吉(Craig Federighi)受訪承認,公司上周公布相關新軟件時表現欠佳,在如何理解情況方面,顯然很多資訊都被嚴重搞混。
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500