Facebook删除100多万条含有COVID-19错误信息的帖子
据外媒报道,Facebook及其图片服务Instagram在2024年最后三个月删除了超过100万条内容,原因是它们含有可能引发迫在眉睫的伤害”、有关COVID-19的错误信息。Facebook负责诚信的副总裁Guy Rosen于当地时间周四在一次新闻电话采访中表示,这些内容包括针对新冠病毒引起的呼吸道疾病COVID-19的虚假预防措以及夸大的治疗方法等。
自新冠大流行开始以来,这家社交媒体巨头对健康错误信息采取了更加强硬的立场。当地时间周一,Facebook表示,它正在扩大关于COVID-19和疫苗的被揭穿的声明清单,而这些声明在其平台上是不允许的。一些虚假声明包括声称新冠病毒是人造的或疫苗比感染这种疾病更危险。在Facebook和Instagram上,反复分享这些虚假声明的群组、页面和账号都可能会一起被清除掉。
Facebook负责全球政策管理的Monika Bickert表示,疫情结束后,我们将继续跟卫生当局对话以确保我们采取正确的方式并依照我们的错误信息政策和原则向前推进。”
现在,一个新的监督委员会负责审查该社交网络一些最艰难的内容审核决定,这挑战了Facebook关于COVID-19虚假信息的部分呼吁。今年1月,该委员会推翻了Facebook因可能造成伤害而撤下COVID-19帖子的决定。该委员会认为这家社交网站针对健康错误信息的规定含糊其词”并敦促该公司制定新的标准。
周四,Facebook还分享了有关其在Q4删除的内容数量的新数据。据悉,这些被删内容违反了针对仇恨言论、骚扰、裸体和其他类型的冒犯内容的规定。该公司一直在接受更为严格的审查以更好地管理内容,尤其是在国会山发生暴乱之后。那次暴乱突显出网络仇恨可能会蔓延到现实世界。
Facebook表示,用户在其平台上看到仇恨言论、裸体、暴力和图片内容的比例也在下降。Facebook表示,每1万次内容浏览量中只有7到8次仇恨言论的浏览量。该公司表示,它在Q4对2690万条仇恨言论内容采取了行动,高于第三季度的2210万条。Facebook将这一增长归因于阿拉伯语、西班牙语和葡萄牙语的技术更新。Instagram则对660万条仇恨言论内容采取了行动。
此外Facebook还表示,由于技术上用于检测伤人评论的更新,他们在用户报告之前就能捕捉到更多的欺凌和骚扰内容。近期,该公司对630万条欺凌和骚扰内容采取了行动,高于上一季度的350万条。Instagram则对500万条欺凌和骚扰内容采取了行动。
Facebook 公司:如何清除 960 万句脏话”?
作者 | 谭婧
题图 | 视觉中国
来源 | 亲爱的数据(ID: deardata)
互联网上每天产生多少句脏话?这是一个谜。但是,从Facebook公司2024年第一季度的《透明度报告》里,可以窥到一些面貌。
自2018年5月以来, Facebook公司以季度为周期发布报告,解释其辛苦的幕(zi)后(jin)工(tou)作(ru)。
在2024年第一季度,公司更是成功删除960万条脏话”内容。这是一个创纪录的数字,高于2024年第四季度的570万条,也超过了2024年第三季度的700万条。
2024年第一季度的全球公众卫生事件,人们有不少坏情绪。
脏话”是简称,直白的理解是,偏激、仇视性话语(Hate Speech)。民间脏话、方言脏话、描述部分人体器官、人身攻击、种族歧视、性别歧视大抵都包括在内,如果有没有想到的,还望海涵。
每天,打开手机APP,就看见键盘侠口吐芬芳”,令人大倒胃口。然而,互联网上脏话的量级,人工删除是删不过来的,而且还会误判。
Facebook公司的方法是,用人工智能技术狙击。
但凡审查,就会有漏查。Facebook公司《透明度报告》有一个缺陷,就是它没有提漏查的程度。
透明与公开,是与公众沟通的高明手段,蠢货只有闭嘴这一招。Facebook公司虽然没有满分,但也提供了榜样”。
让我们看到真善美的存在,也要看到假恶丑如何被干掉。
在Facebook公司第一季度删除的960万个帖子中,软件系统检测到88.8%(在用户看到信息并举报之前)。这表明该算法用机器标记了850万个脏话”帖子,比上一季度的460万个增长了86%。
2024年第一季度,除了病毒蔓延,脏话”也在蔓延。
Mike Schroepfe,自2013年3月以来一直担任Facebook公司的首席技术官。他借《透明度报告》发布的机会,重点打了一轮人工智能技术的广告,宣传了该公司自然语言处理技术的进步。
他说:我们的语言模型变得更大,更准确,更细微了。能够发现细致微妙的东西。”
可惜,Schroepfer并没有解释说明这些系统审查的精确程度,只是说Facebook在部署系统之前对其进行了广泛的测试(测试机器误判的情况)。
毕竟一个把正常表达识别错误的机器,也很让用户恼火。回忆诗人顾城的段子。
Mike Schroepfe引用了新报告中的数据,这些数据表明,尽管在最近的25 - 130万条中,用户更经常地对删除内容的决定提出申诉(有可能是骂骂咧咧习惯了,突然被删,很是不服气),但后来执意恢复的帖子数量有所减少(习惯了)。
Facebook的数据并未表明仇恨言论在其算法网络中漏失了多少。该公司的季度报告估计了Facebook规则禁止的某些类型的内容的发生率,但没有脏话”内容。新闻官宣显示,自2024年夏天以来,暴力帖子数量有所下降。Facebook公司仍在制定一项全球指标”。
缺失的数据掩盖了社交网络的脏话言论的真实规模。
西雅图大学副教授凯特琳·卡尔森(Caitlin Carlson)说道:与Facebook庞大的用户网络以及用户对令人不安的内容的观察相比,删除的帖子数目(960万条)看起来太少了。
教授认为,960万条脏话”,这一数据还不够真实?
无独有偶,卡教授在2024年1月份发布了一项实验结果。她和一位同事收集了300多个Facebook帖子(样本),这些帖子明显违反了规则,实验人员用服务工具进行了举报。追踪结果显示,最终只有大约一半的帖子被删除。
卡教授这一实验结果,在挑战Facebook。同时,她也发现,同样是口吐芬芳”,算法对种族歧比在歧视女性方面更为严格。不知道Facebook高管桑德拉看后作何感想。
Facebook表示,对算法找到(标记)的内容与用户报告的处理相同。流程上确定是直接删除,还是警告处理。可能流程上要流转到下一环节,人工审核者。(或者仍由软件判定,视情况而定。)
这时候,要谈谈人工审核员工的苦楚了。
2024年5月,Facebook公司同意支付5200万美元与内容审查团队的员工达成和解。原因很惊人,审查帖子导致他们患上了精神创伤,已获法庭鉴定。外媒The Verge之前详细报道了这一消息。
消息原文:Facebook承认内容审核会给员工造成巨大的损失,这一次,是具有里程碑意义的承认。Facebook同意向现职和前任审核人员支付5200万美元,以补偿他们因工作出现的心理健康问题。
在美国圣马特奥高等法院提出的一项初步和解中,Facebook公司同意支付赔偿金,并在他们工作期间给与更多帮(tong)助(qing)。”
天天看这些脏话的人,都受了内伤。当然,这得算工伤。
在剑桥门”事件后,审核报告是Facebook公司透明度程序的一部分,这一程序还包括聘请一个新的外部专家小组(有没有研究脏话的专家?),该小组有权推翻该公司的审核决定。
讲道理,只有董事会才是公司最高权力机构。
公司协调外部力量参与的力度很大。毕竟罚金有点高,这样下去,扎克伯格就会比亚马逊公司的贝佐斯穷多了。
(剑桥门”事件,脸书认罚50亿,当然是美金。)
卡教授继续与Facebook公司正面硬刚(我还挺欣赏她的执着)。她表示,Facebook公司的披露似乎表明该公司可以自我监管,但报告有缺陷。
她说:要与公司进行对话,我们需要数据。”
当被问及为何不报告脏话”言论泛滥情况时,Facebook公司发言人指出,该报告的衡量标准正在缓慢扩展,以覆盖更多的语言和地区,以考虑到文化背景和个别语言的细微差别” 。
定义和检测脏话”是Facebook和其他平台面临的最大社会和技术挑战之一。
在全球多元文化背景下,即使是人类分辨内容,也是需要花一番功夫的。举个例子,有抖音号教青岛方言表扬人用赤丝”,请自行体(bai)会(du)一下。
自动化是很棘手的,因为人工智能距离人类对文本的理解还有很长的路要走,理解文本和图像共同传达的微妙含义的算法的研究才刚刚开始。
Schroepfer说道:机器学习算法在语言学研究的帮助下,Facebook已经升级了检测算法。许多高科技公司正在对其处理语言的软件系统(例如谷歌的搜索引擎)进行改造,提高用算法解决诸如回答问题或澄清歧义等语言问题的能力。”
他强调:(这是)重大改进。”
Schroepfer还明确指出,这些改进并不能使技术达到完美。
《透明度报告》透露出,在内容审查和审核方面,Facebook重兵布防人工智能。脏话会影响社交网络的根基,人工智能再昂贵也要用起来。
Facebook表示,它已经创建了超过10000个仇恨语音模因(模因是许多人在互联网上相互发送的东西,如视频,图片或短语)的集合,这些模因结合了图像和文本,并激发新的研究。
该公司将向研究小组提供10万美元的奖金,激励这些研究小组开发出能够最好地发现可恶的模因与良性内容相混合的开源软件。
美国还在对社交媒体内容中的脏话”监管采取放任不管的态度。
德国2017年通过了《网络执法法》(NetzDG),该法要求拥有或超过200万用户的社交媒体公司必须删除或阻止访问报告的内容,因其违反了德国刑法对仇恨言论的限制(《网络实施法》,2017)。
公司必须在收到通知后的24小时内删除明显的仇恨言论”,否则将面临5000万美元的罚款(Oltermann,2018年)。
值得一提的是,在2024年恐怖主义袭击了新西兰的两座清真寺之后,全球领导人与脸书、谷歌、推特等其他公司高管会面,共同制定了一套名为《基督城召唤》(Christchurch Call)的全球反恐准则,制定针对极端、暴力,以及仇视性言论。
更值得一提的是,美国没有签署承诺。
远在海外的抖音国际版(Tiktok)也发布了《透明度报告》(2024年12月),只有五页纸。
别问为什么,被逼的。
互联网公司有无可比拟的力量来塑造人类话语世界,偏激言论遍地开花,其处理和删除情况却鲜为人知。《透明度报告》也适用于新浪微博等国内互联网平台公司。敢问一句,现在是什么样的世道?先进技术和生产力都用来和脏话”做斗争了。
?程序员之痛:六次创业五回失败了
?Linux 之父怒删工程师提交的补丁,称太蠢了”网友:怼得好!
?张一鸣是如何练就字节跳动的
?性能超越最新序列推荐模型,华为诺亚方舟提出记忆增强的图神经网络
?DevOps 在移动应用程序开发中扮演什么角色?
?稳定币经济:十大稳定币简史
因传播新冠肺炎虚假信息 Facebook清除一反口罩群组
据外媒报道,Facebook已经删除了其平台上最大的反口罩群组之一,原因是该小组违反了该平台有关禁止传播新冠肺炎虚假信息的政策。据悉,拥有9600多名成员的Unmasking America! 群组称自己来这里是为了传播有关口罩的真相。按照该群组的说法,戴口罩会阻碍氧气流动、给心理造成负面影响。
它被描述成压抑、奴役和认知服从的心理锚。当你戴上口罩时,你就是在串通一气地宣称所有人类都是危险的、有传染性的、具有威胁的。”
当在Facebook上搜索摘下口罩”可以很容易地找到几十个这样的群组。有些组是私有的,这意味着新成员的加入需要得到组管理员批准新才行。但它们主题都是一样的,即反对由医学专家倡导的公共卫生干预。美国疾病控制和预防中心建议人们在所有公共场所戴口罩,这将能限制病毒的传播。这些Facebook群组是为那些不想戴口罩的人准备的,而这样的人也很多。
据外媒The Verge报道称,Facebook则是在其向他们发出了询问请求之后才开始采取行动。Facebook发言人Dami Oyefeso在一封电子邮件中表示:我们UI禁止传播关于COVID 19的有害错误信息有着明确的政策,我们已经删除了这个群组,同时还对其他群进行了审查。”
根据Facebook的规定,如果一个群组反复分享虚假新闻,该平台将在用户的News Feeds中以排位较低的位置显示,同时平台还会停止建议用户加入该群组。