近日,脸书Facebook公司传出消息,介于目前谋杀、性骚扰及自杀等直播行为盛行,公司决定招聘3000多名专门从事监管Facebook网站直播内容的职员。
这是一项及时并应该予以赞同的措施。但又有谁注意到这些受雇者的利益呢?
(图片来源:METRO NEWS)
当今存在的很多问题是全球范围性质的,从基于性别的暴力行为到心理健康问题,而脸书Facebook显然成为了一个很好的猎取观众的平台。目前大型社交网络脸书Facebook、推特Twitter及照片共享应用Instagram都有设置上千专员用于过滤网友上传到网站的不恰当文件,以避免大众观看。脸书Facebook 现有4500名版主,是公司内部专门从事检阅网站上来自12亿网友的照片、留言及直播视频总职员数的1/4。
泛滥的信息,除了生日庆祝、早午餐、成人礼等网友日常生活外,也充斥着暴力与恐怖。
在泰国,有网站直播一名男子谋杀自己的亲生女婴后自杀的视频;加拿大的努纳武特Nunavut警方公布一男子渴望去死的视频,并且该男子在数小时后死亡;加拿大中南部马尼托巴湖Manitoba,一家社区中心在一名少女被杀后被整顿,流出的视频显示受害人被其他同龄人攻击,该视频被网友在社交网站上反复分享。
上传网络的海量数据势不可挡,并持不断上涨趋势。而对不适宜内容进行审查删除的人员可能居住海外,比如菲律宾。
脸书Facebook不是单枪匹马地在作战,而他们也绝不是净化网络风气的唯一责任人。
目前有技术可以自动鉴定出涉及儿童的色情内容,但最后结果还是需要人为核实。比如去年11月的一个案例,两名男子状告雇主微软Microsoft,此前他们受聘负责审查网站内容包括各类暴力照片,特别是虐待儿童方面的内容后患上PTSD创伤后精神紧张性精神障碍及相关心理健康问题,导致他们现在无法再正常工作甚至与家人相处。
(图片来源:网络)
遗憾的是,现在还没有一项技术可以删除已经被登为头条的暴力及破坏性行为的直播视频。像脸书Facebook这类公司只能完全依赖他们的人事专员。脸书Facebook确实在网站内容审查方面有进一步的提高,但是聘用越来越多的海外廉价劳动力却没有相匹配的员工健康保障系统,这只会导致将这场无声的销烟从线上虚拟环境转移到线下的实际生活中而已。