内文图.jpg

以Facebook和Twitter为代表的西方社交媒体在应对网络不良信息方面令人失望。图片来源:视觉中国

据英国《卫报》报道,在新西兰清真寺恐袭事件发生后,社交网站脸书(Facebook)在24小时内删除了至少150万条与此次恐袭相关的视频。

不过,脸书的这一举动依然没能平息外界对于该公司在此次事件中反应迟钝的指责:嫌疑人通过脸书直播了行凶过程,视频长达17分钟。虽然脸书公司在事后的声明中称公司在警方发出警告后就立即删除了视频及称赞嫌疑人的帖子,但是美国全国广播公司(NBC)的报道称,在凶手贴出直播视频至少一个半小时之后,脸书才删除了原始视频。

脸书的迟缓也让这些血腥视频在其他社交媒体被大量转发,而这些社交平台在处理这些令人极度不适的内容上的表现也不尽如人意:有网友称袭击发生3小时后,视频平台YouTube才开始删除相关视频,而有的视频甚至存活了超过12个小时。

在Web 3.0时代,社交网络已经成为人们生活的“基础设施”之一。然而,网络社交平台在为网民提供各种服务的同时,也日益成为各种暴力、色情信息、仇恨言论、垃圾和虚假消息等有害内容快速传播的渠道。

从理论上来说,各个社交媒体都制定了较为详细的规则来规范用户的发帖行为和内容。以脸书为例,在公司最新版的《社群守则》中,详细列举出了会被删除的内容,其中就包括宣扬暴力、恐怖、有组织犯罪、性犯罪、鼓励自杀和自残、散播仇恨、虚假信息、垃圾信息等10多项内容。根据相关规则,一旦用户上传这些内容,平台都将会做删除处理。

在技术层面,美国网络新闻媒体Quartz称,社交平台通常会为不适当的图文及视频内容制定特定的标签,以让系统可以很容易地发现相关内容并自动将这些内容删除。目前绝大多数社交平台都采用“人工智能 人工”组合的方式来鉴别相关内容是不是触动了删帖规则,从而实施内容审查和监控。

但是,在现实操作中,西方社交媒体的自我把关似乎总是面临失效的窘境。在此次新西兰恐袭之前,人们已经注意到,在多起恐怖袭击、大规模枪击事件或连环杀人案中,社交平台上总是充斥着大量提高行凶者知名度的内容,而平台在处理这些内容时的态度令人失望。

一方面,虽然平台制定了看似严谨的条款规范发帖内容,但是在执行时却又经常躲在“言论自由”的幌子后面,对这些有害内容“睁一只眼闭一只眼”。在过去几年间,包括脸书在内的一大批社交平台,竟然成为极端恐怖组织对普通民众洗脑的宣传工具,“成功地”吸引了大量西方年轻人抛弃家人到中东为极端组织卖命、制造“独狼式”恐怖袭击。

另一方面,虽然这些平台都标榜采用“AI 人工”的方式进行审查,但是实际效果令人怀疑。相对于文字内容,用户更容易通过篡改图像内容来绕过监控算法,视频内容的审查一直是互联网企业审查的难点,而流媒体直播对于社交平台来说更是“灾难性”的存在。包括脸书、推特、Instagram、YouTube在内的互联网巨头出于成本和利益考量,不断拖延或拒绝增加审查人员,也让整个审查系统形同虚设,导致有害信息在社交平台泛滥。(海外网评论员 聂舒翼)

本文系版权作品,未经授权严禁转载。海外视野,中国立场,登陆人民日报海外版官网——海外网www.haiwainet.cn或“海客”客户端,领先一步获取权威资讯。