极端内容在Facebook泛滥为公司招来许多批评。周四时,Facebook介绍了自己工作,让我们深入幕后,看看它是怎样解决此问题的。
  Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)、反恐政策经理布莱恩·菲什曼(Brian Fishman)在博文中表示:“我们的立场非常简单:在Facebook没有恐怖分子的容身之地。我们删除恐怖主义内容以及支持恐怖主义的内容,一旦发现会删除。当我们收到报告,说某些帖子可以涉及恐怖主义,我们马上会对帖子进行评估审查。”
  直到近,Facebook才在反恐方面使用AI技术。其中使用的一种技术是图像匹配。也是说如果用户发布一张图片,上面出现了已知的恐怖分子,Facebook软件会自动匹配,比如将图片与ISIS的宣传视频匹配,或者与Facebook上出现的其它极端图片和视频匹配,这些图片视频已经被删除。
  不只如此,Facebook还在做实验,对网站上恐怖分子可能使用的语言进行解析。Facebook还准备扩大技术的应用范围,用在其它App中,包括WhatsApp和Instagram。
  比科特和菲什曼说:“我们相信技术、Facebook可以成为解决方案的一部分。”
  随着规模和影响力的扩大,Facebook有一些问题需要解决,现在Facebook每月有用户20亿。在过去几个月里,Facebook受到了假新闻的困扰。一些人还用Facebook Live直播谋杀、暴力内容。
  问题在于:用户可以用Facebook发布各种内容(几乎是任何内容),网站必须对内容进行监管。
  在反恐问题上,Facebook认为技术并不是完美的“答案”,它还依赖人力来控制。Facebook反恐团队已经有150名成员,有些人之前是检查官,或者来自执法机构,或者是工程师。
  不只如此,Facebook还与其它一些机构和组织合作。Facebook说公司定期与执法机关和政府合作。去年12月,Facebook与其它科技企业合作,包括Twitter、微软谷歌旗下YouTube,创建一个行业数据库,记录恐怖分子的数字指纹。
  博文称:“我们希望Facebook成为恐怖分子的‘敌对环境’。在线社区面临的挑战与真实世界的社区是一样的:及早发现,以免造成不可挽回的后果。”