据英国《每日邮报》5月15日报道, 脸书在过去两个季度中已经禁用了13亿个虚假账户,其中有很多账户“意图传播垃圾邮件或进行诈骗等非法活动”。
脸书承认,它的人工智能检测技术“不够强大”,尤其在仇恨言论方面,它需要人工审核。该公司此前曾表示,计划招聘数千名人工审核人员,从而“让脸书更安全”。
脸书对250万篇违反仇恨言论规则的帖子采取行动,但其中只有38%的帖子是脸书自己找到的。该公司技术部门在用户举报之前发现了约86%的暴力内容。
脸书负责数据分析的副总裁亚历克斯•舒尔茨在新闻发布会上对记者说,暴力内容的增加可能与全球冲突的爆发有关,比如最近叙利亚的暴力事件。
舒尔茨解释说:“通常情况下,世界上有很多糟糕的东西,很多东西会出现在脸书上。”
长期以来,脸书面临来自政府和人权组织的猛烈批评,因为脸书未能采取足够措施阻止仇恨言论,未能阻止脸书被用于宣传恐怖主义、煽动教派冲突和散布谋杀、自杀等。
罗森说,像人工智能这样的技术还需要数年时间才能有效地检测出糟糕至极的内容,因为计算机难以理解上下文。然而,脸书的人工智能技术在与公众互动之前,已经显著提高了识别和删除虚假账户的能力。迫于政府的压力,脸书一直增加审核人员,并希望到2018年底,安全保障团队增加到2万人。
罗森说,无论是垃圾邮件、色情内容还是虚假账户,脸书都要对付那些狡猾的对手,他们不断改变战术以摆脱我们的控制。
这是脸书自早些时候泄露大规模数据隐私丑闻以来首次发布的社区标准报告。
今年3月,与特朗普竞选团队有关联的一家研究公司——剑桥分析公司披露,脸书在用户不知情的情况下收集了多达8700万用户的数据。