Fb審查 23億貼文含暴力色情
【本報綜合報道】美國科企Meta周四以視像形式舉行內容政策說明會,指每天檢視數百萬則內容,判斷有否違反社群守則。當天公布的數據顯示,今年第2季分別審查旗下社交網Facebook約23.1億則貼文及Instagram約4,664萬則貼文,涉及暴力、煽動、欺凌、仇恨言論及色情等內容。
收逾百萬宗申訴
會上指出,Meta兩年前成立全球獨立監察委員會以來,已經收到逾百萬宗申訴案件,會對重要內容作出具有約束力的獨立裁決,此外亦採納超過1.2萬個委員會的建議。該委員會是全球唯一有權對私營社交平台施加具約束力裁決的組織,由來自不同國家、文化和語言背景的成員組成,包括台灣學者陳憶寧等5名亞太區成員。
Meta表示,該委員會的建議影響廣泛,已經對該公司的內容政策和執行產生實質改變。被問會否審查特定關鍵詞,Meta高層指關鍵詞不是唯一判斷內容有否違反社群守則的工具,例如偵測到或違反守則的關鍵詞將交由部門職員判斷。
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500