審查資訊 fb員工10秒作決定

【本報綜合報道】社交網facebook(fb)早前接連發生備受爭議的直播事件,令該網審查內容準則及道德標準成為焦點。英國有媒體近日查閱fb內部文件,列出fb如何審核並管理內容。因資訊過多,fb審查員往往只能於十秒倉卒下決定。

自殘影片未必刪除

《衞報》報道,根據fb內部傳閱文件,披露了審查員處理涉及仇恨性、傷害性和暴力等內容。文件指,國家元首屬於保護類別,因此如有人發文稱「有人要開槍射特朗普」時,該貼文應被刪除。不過,如果用戶只發表「用盡全力打某女子的頸部」或「走開和死開」等言論,由於這些貼文並「不可信」,因此不會被刪除。

雖fb不容許用戶直播自殺,但企圖自殘行為的影片則未必刪除,理由是不想過濾或懲罰處於痛苦的用戶,而與支援及慈善組織合作的fb專門團隊,則會嘗試讓有關用戶得到協助。fb回應時表示,由於用戶接近二十億人,難以就容許發表言論的準則達成共識,但強調令用戶感到安全是公司的重要責任。