【大紀元2017年05月22日訊】英國「衛報」在看過臉書公司外流的內部準則文件後,揭露通常只有10秒鐘決定內容去留的臉書,是如何管理平台上的仇恨言論、恐怖主義、情色內容和自殘等議題。
「衛報」(Guardian)報導,臉書每週要審核超過650萬個可能是假帳號的舉報,而「復仇式情色」(revenge porn)等新挑戰,讓通常只有10秒鐘決定內容去留的臉書管理員疲於應付。根據獨立報(Independent),復仇式情色指的是民眾在沒有取得同意情況下,在網路張貼分手情人的暴露影像。
「衛報」指出,臉書許多內容管理人員很關切部分政策的前後不一致和奇特本質。舉例來說,據說最複雜也最讓人混淆的是情色內容刪留規定。
路透報導,臉書沒有特別評論這項報導,但表示安全是首要考慮因素。
臉書全球政策管理部負責人貝克特(MonicaBickert)在聲明中表示:「維持臉書網友安全是我們最重要的工作。我們努力盡可能保持臉書的安全,同時也確保言論自由。」
臉書證實,他們利用軟體早一步攔截問題內容,避免這些內容上網,不過這仍處於初期階段。
根據「衛報」,外流文件包括內部培訓手冊、電子表格和流程圖。
「衛報」還舉例,臉書允許網友直播企圖自殘的影片,因為臉書「不想審查或懲罰陷入困境的人」。
「衛報」報導,儘管暴力致死的影片臉書會標記為「令人不安」,但不一定會刪除,因為這些影片有助於引發他人對精神疾病的關注。另外,有些非性虐待或霸凌孩童的照片不會被刪除或「採取行動」,除非含有「施虐」或慶祝元素。
路透社無法獨立核實「衛報」網站上所公布文件的真實性。(轉自中央社)