Ofcom将推动更好的年龄验证、筛选器和其他40项检查措施,在新的在线儿童安全准则中
通信监管局(Ofcom)正在加强对Instagram、YouTube和其他15万个网络服务的监管,以提升儿童在网上的安全性。英国互联网监管机构推出了一项新的儿童安全准则,将督促科技公司做好年龄验证、过滤和降低内容排名等工作,并采取大约40项措施来评估有害内容,如自杀、自伤和色情等,以减少未成年人的接触。目前,该准则尚处于草案阶段,将于7月17日前接受反馈意见,预计Ofcom在春季发布最终版本后,明年开始执行。公司在最终发布儿童安全准则后将有三个月的时间完成首次儿童安全风险评估。
这个法规很重要,因为它可能迫使互联网公司改变如何保障在线安全的方式。政府一再表示希望英国成为世界上最安全的上网地方。是否能够成功防止数字污染进入孩子们的眼睛,就像阻止实际污染水道一样,目前还不清楚。批评者认为,这种做法将给科技公司带来沉重的合规成本,并使公民更难接触某些类型的信息。
同时,未能遵守《在线安全法》可能会给总部位于英国的各种规模的网络服务带来严重后果,违规者可能面临高达全球年营业额的10%的罚款,甚至在某些情况下,公司高级管理人员可能会承担刑事责任。
该指导重点关注加强年龄验证。继去年发布的关于色情网站年龄确认的草案指导之后,被认为“准确、强大、可靠和公平”的年龄验证和评估技术将被应用于更广泛的服务范围,作为计划的一部分。照片身份证匹配、面部年龄估算和可重复使用的数字身份服务将被采纳;年龄的自我声明和对儿童使用服务的合同限制将被取消。
这意味着英国人可能需要适应在访问一系列在线内容之前证明他们的年龄 — 虽然平台和服务如何准确地应对他们的法定责任以保护儿童,将由私营公司决定: 这就是指导的性质。
这份草案还列出了对内容处理的具体规定。自杀、自伤及色情内容被认为最具有害,必须被积极过滤(即删除),以免未成年人看到。Ofcom希望其他类型的内容,比如暴力内容,在儿童的信息流中降低优先级,使之更不易被看到。Ofcom还表示,可能会要求服务提供商对潜在有害内容(例如抑郁内容)采取行动。监管机构告诉TechCrunch,他们将鼓励企业特别关注儿童在设计安全干预措施时所受到的“数量和强度”。所有这些都要求服务提供商能够识别儿童用户——再次推动强有力的年龄检查措施。
Ofcom先前将儿童安全列为其在执行英国《网络安全法》中的首要任务——这是一本涵盖内容审查和治理规则的综合手册,涉及的危害包括网络欺诈和诈骗广告;网络骚扰和深度伪造的复仇色情;虐待动物;网络欺凌和恶搞,以及规范服务如何处理恐怖主义和儿童色情滥用材料(CSAM)。
去年秋天通过了《网络安全法案》,现在监管机构正忙于实施该法案,其中包括设计和咨询详细指导文件,在议会批准规范实施前启用其执法权力。
根据Ofcom估计,《在线安全法》约涵盖了约15万个网络服务,许多科技公司最起码需要评估儿童是否正在使用他们的服务,如果是的话,就要采取措施来识别和减轻各种安全风险。 监管机构表示已经在与一些较大的社交媒体平台合作,这些平台可能存在最大的安全风险,如Facebook和Instagram,协助他们制定合规计划。
儿童安全守则咨询
总的来说,Ofcom的儿童安全守则草案包含了40多条“实际步骤”,监管机构希望网络服务提供商采取这些步骤,确保儿童保护融入其运营中。包括热门社交媒体网站、游戏和搜索引擎在内,很可能会涵盖各种应用程序和服务。
Ofcom在一份咨询总结中写道:“服务必须阻止儿童接触与自杀、自伤、饮食障碍和色情相关的最有害的内容。服务还必须尽量减少儿童接触其他严重危害,包括暴力、仇恨或虐待内容、欺凌内容以及促进危险挑战的内容。”
实际上,这意味着所有不禁止有害内容的服务,以及更容易在其服务中分享有害内容的服务,应当预期实施高效的年龄验证措施,以防止儿童看到这些内容,”周一在新闻发布会中补充说。“在某些情况下,这将意味着阻止儿童访问整个网站或应用程序。在其他情况下,可能会意味着仅供成年人访问的部分被限制,或者限制儿童访问已识别为有害内容的内容。”
Ofcom目前的提议是几乎所有服务都必须采取措施保护儿童。只有那些部署了“高度有效”的年龄验证或年龄估算技术,用于防止儿童访问该服务(或其中内容对儿童构成风险的部分),才不受儿童安全职责的约束。
相反,那些发现儿童可以访问他们的服务的人需要进行后续评估,被称为“儿童用户条件”。这需要他们评估是否有“大量”儿童正在使用该服务和/或可能被吸引到该服务上。那些可能被儿童访问的人必须采取措施保护未成年人免受伤害,包括进行儿童风险评估和实施安全措施(例如年龄确定、治理措施、更安全的设计选择等)-并应用持续审查其方法,以确保他们跟上不断变化的风险和使用模式。
Ofcom在这种情况下并没有定义“显著数量”的含义,但是“即使只有相对较少的儿童也可能在遭受伤害风险方面具有重要意义。我们建议服务提供商在评估时应该谨慎行事。”换句话说,科技公司不能通过辩称少数未成年人使用他们的产品来规避儿童安全措施。
儿童安全责任范围内的服务也不是能一蹴而就的简单解决方法。通常需要多种措施,结合对效果的持续评估。
Ofcom在一份咨询概览中写道:“没有一项单一的措施可以保护儿童上网。安全措施需要共同作用,以帮助为儿童创造一个整体更安全的体验。”此外,他们补充道:“我们在起草的《儿童安全守则》中提出了一套安全措施,这些措施将共同作用,为儿童在网上提供更安全的体验。”
推荐系统,重新配置。
根据草案规定,任何运营推荐系统的服务,即一种算法内容排序的形式,跟踪用户活动,并且处于“较高风险”显示有害内容的服务,必须使用“高效”的年龄确认来识别他们的儿童用户。然后他们必须配置他们的推荐算法,过滤出最有害的内容(比如自杀、自残、色情)以便从被识别为儿童的用户的动态中减少这些内容的出现,并降低其他有害内容的“可见性和显著性”。
根据网络安全法,自杀、自残、饮食失调和色情被归类为“首要优先内容”。有害挑战和物质;针对受保护人群的滥用和骚扰;对人或动物进行真实或逼真的暴力;以及指导严重暴力行为的指示都被归类为“优先内容”。网络服务提供商也可以识别其他风险内容,他们认为需要采取行动作为风险评估的一部分。
在提出的指导意见中,Ofcom希望儿童能够直接向推荐器反馈负面意见,以便更好地了解他们不想看到的内容。
内容审核是《规范草案》中的另一个重点,监管机构强调了研究结果,显示有害于儿童的内容在许多服务上大规模存在,这表明现有服务的审核工作还不够。
该提案建议所有“用户对用户”服务(即允许用户相互连接,例如通过聊天功能或浏览上传的内容)必须设有内容审核系统和流程,确保对对儿童有害的内容采取“迅速行动”。Ofcom的提案并不包含使用自动工具检测和审核内容的期望。但监管机构表示,他们知道大型平台通常会使用人工智能来进行规模化内容审核,并表示他们正在“探讨”如何将自动工具的措施纳入未来的准则中。
Ofcom还建议,预计搜索引擎将采取类似的行动。"并且在用户被认为是儿童时,大型搜索服务必须实施一个‘安全搜索’设置,这个设置不能被关闭,必须过滤掉最有害的内容。"
“其他更广泛的措施需要服务机构明确政策,规定允许发布何种内容,如何确定内容的审核优先顺序,以及确保内容管理团队得到充分资源和培训,”它补充道。
草案中还包括一些措施,旨在确保科技公司内部儿童安全的“强有力的治理和问责制”。这些措施包括指定一个负责遵守儿童安全职责的人员;每年由高级管理层审查与儿童安全相关的所有风险管理活动;以及员工行为准则,设定了员工在保护儿童方面的标准,Ofcom写道。
在制定法律草案期间,Facebook和Instagram的所有者Meta公司经常被部长们单独指出,对保护儿童的态度不严格。最大的社交平台可能会造成最大的安全风险,因此在遵守方面可能有着“最广泛的期望”,但这并不意味着由于规模大就可以获得免责。
“服务机构不能仅因为成本昂贵或不方便而拒绝采取措施来保护儿童-保护儿童是重中之重,所有服务机构,即使是最小的,都将不得不根据我们的提议采取行动,”它警告说。
Ofcom强调的其他提出的安全措施包括建议服务提供更多选择和支持给儿童和照顾他们的成年人,比如要有“清晰易懂”的服务条款;并确保儿童能够轻松举报内容或投诉。
草案指导意见还建议为儿童提供支持工具,使他们能够更好地控制在线互动,例如拒绝群组邀请的选项;屏蔽和静音用户账户;或者禁止评论自己的帖子。
英国的数据保护机构信息委员会办公室自2021年9月以来已经要求符合其适合儿童的设计准则,因此可能会产生一些重叠。例如Ofcom指出,服务提供商可能已经为数据保护合规目的评估了儿童的访问情况 — 补充说他们"可能能够利用同样的证据和分析来满足两者的要求"。
改变孩子安全脚本?
监管机构督促科技公司在安全问题上积极主动,并表示一旦措施就位,将毫不犹豫地使用其全部执法权力。对科技公司传达的基本信息是尽早整顿好自己的规章制度,否则可能面临巨大的代价。
在新闻发布会中发出警告:“我们明确知道,任何未能履行法定责任的公司都可能面临执法行动,包括巨额罚款。”
政府也在全力支持Ofcom呼吁积极应对。科技部长米歇尔·多内兰今天在一份声明中表示:“对于平台,我的信息是与我们合作并做好准备。不要等待处罚和巨额罚款-立即履行责任并立即行动。”
政府指定Ofcom执行法案,今天监管机构已经明确表示:平台必须引入年龄检查,让年轻人在网络上体验到现实世界中的年龄检查,并解决算法问题,确保他们不会轻易接触到有害材料。”她补充说,“一旦实施这些措施,将会在英国孩子们在线世界的体验中带来根本性的变化。
“我想向家长保证,保护孩子是我们的首要任务,并且这些法律将有助于保障他们的家庭安全。”
Ofcom表示希望对《在线安全法案》的执行能够为儿童在网络上的安全提供所谓的“重置”,并表示相信正在设计的方法,与多方参与者(包括成千上万的儿童和青少年)的意见将对孩子们的在线体验产生“显著影响”。
详细阐述其期望,表示希望制定规则以改变在线安全的现状,使孩子们“不会通常”能够接触色情内容,并且受到保护,避免“看到和被推荐可能有害的内容”。
除了身份验证和内容管理之外,它还希望法律确保未经儿童同意不会被加入群聊,并希望让儿童更容易投诉他们看到的有害内容,并“更加自信”地相信他们的投诉将得到处理。
从目前情况来看,英国儿童在线体验更接近Ofcom引用的研究结果。在过去四周的观察中,多数(62%)年龄为13-17岁的儿童报告遭遇过网络伤害,并有许多人表示他们认为这是他们在线生活中“不可避免”的一部分。
英国媒体监管机构Ofcom发现,小学阶段就开始接触暴力内容,那些在社交媒体上遇到宣扬自杀或自残内容的儿童将其描述为“普遍存在”,频繁暴露使其“普遍化和麻木化”。因此,监管机构面临着巨大的任务,重新塑造孩子们在网络上遇到的环境。
除了儿童安全代码外,Ofcom对服务的指导还包括了一份儿童风险登记草案,其中详细说明了儿童遭受网络伤害风险的更多信息;以及一份有害指导草案,其中列举了对儿童有害的内容的示例和类型。所有指导的最终版本将在Ofcom进行咨询程序后发布,这是Ofcom的法律责任。它还告诉TechCrunch,将提供更多信息,并推出一些数字工具,以进一步支持服务的合规性,以应对执法的到来。
Ofcom补充说:“在设计准则时,儿童的声音一直是我们的核心。在过去的12个月里,我们听取了来自逾15,000名年轻人关于他们在线生活的意见,并与7,000多名父母以及与儿童合作的专业人士进行了交流。"
作为我们咨询过程的一部分,我们正在与全英国的儿童举行一系列专题讨论,探讨他们对我们提议的看法,确保在安全环境中进行。我们也希望听取其他群体的意见,包括父母和护理者、科技行业和民间社会组织,如慈善机构和专业专家,他们致力于保护和促进儿童利益。
监管机构最近宣布计划在今年晚些时候启动另一轮咨询,该计划将研究如何使用自动化工具,也就是人工智能技术,来部署内容审核流程,以主动检测非法内容和对儿童最有害的内容,比如以前未被发现的CSAM以及鼓励自杀和自残的内容。
然而,目前尚无明显证据表明人工智能能够提高检测此类内容的效能,而不会造成大量(有害的)假阳性。因此,尚待观察Ofcom是否会推动更大范围地使用这类技术工具,考虑到在这种情况下依赖自动化可能会适得其反的风险。
近年来,英国内政部一直在推动发展所谓的“安全技术”人工智能工具,特别是用于扫描端对端加密的信息以寻找CSAM。最近发布的独立评估结果警告称,这些技术不适合其目的,对人们的隐私和通信机密性构成存在威胁。
父母可能会有一个问题,那就是当孩子满18岁生日时,当法律不再适用时会发生什么?如果所有保护孩子在线体验的规则在一夜之间消失,就可能会导致仍然年轻的人突然接触到之前被屏蔽的有害内容,存在被淹没的风险。这种震惊的内容转变本身可能会为青少年带来新的在线成年风险。
Ofcom告诉我们,未来可能会推出针对更大平台的建议,以减轻这种风险。
当我们问及这个问题时,Ofcom的女发言人回答说:“孩子们将这些有害内容视为在线体验的一部分,通过在他们还是孩子的时候保护他们免受这些内容的侵害,我们也在改变他们对什么是在线适当体验的期望。”“无论年龄多大,用户都不应接受其推送内容充斥着有害内容。我们的第三阶段咨询将包括进一步提议,关于如何最大和最危险的服务能让所有用户更多地控制他们在线看到的内容。我们计划在明年初启动这一咨询。”