Rubrik的IPO文件显示设有人工智能治理委员会。要适应它
在本周的Rubrik IPO文件中,员工人数和成本报表之间隐藏着一条小信息,揭示了这家数据管理公司对生成式人工智能以及伴随新技术的风险的思考:Rubrik已悄悄成立了一个治理委员会,监督人工智能在其业务中的实施方式。
根据S-1表格,新成立的人工智能监管委员会包括来自Rubrik的工程、产品、法律和信息安全团队的经理。这些团队将共同评估使用生成式人工智能工具可能带来的法律、安全和商业风险,并思考“可以采取哪些措施来减轻这些风险”,文件中写道。
要明确一点,Rubrik并非AI企业的核心业务——它唯一的AI产品是一个名为Ruby的聊天机器人,于2023年11月推出,是基于Microsoft和OpenAI的API构建的。但像许多其他公司一样,Rubrik(以及其现任和未来的投资者)正在考虑未来AI在其业务中将扮演越来越重要的角色。因此,我们应该预期未来会有更多类似的举措。
不断加强的监管审查
一些公司正在采用人工智能最佳实践来主动行动,但其他公司可能会被像欧盟人工智能法案这样的监管推动而采取行动。
被称为“世界上第一部全面的人工智能法律”的里程碑立法预计将于今年晚些时候在欧盟全体成员国成为法律,禁止一些被认为带来“不可接受风险”的人工智能使用场景,并定义其他“高风险”应用。该法案还制定了旨在降低可能引发偏见和歧视等伤害的风险的治理规则。这种风险评估方法很可能会被寻求理性推进人工智能采用的公司广泛采纳。
隐私和数据保护律师爱德华多·乌斯塔兰是霍金路威国际律师事务所的合伙人,他预计欧盟人工智能法案及其众多义务将加大对人工智能治理的需求,进而需要成立委员会。他表示:“除了在制定和监督人工智能治理计划方面起战略作用外,从操作角度看,人工智能治理委员会是解决和最小化风险的关键工具。”“这是因为一个经过适当建立和配置的委员会集体应该能够预见到所有风险领域,并与企业合作处理在出现之前。在某种程度上,人工智能治理委员会将作为所有其他治理工作的基础,并提供急需的保证,以避免合规方面的差距。”
最近在一份有关欧盟AI法案对企业治理的影响的政策文件中,ESG和合规顾问Katharina Miller一致认同,建议公司建立AI治理委员会作为合规措施。
法律审查
遵从并不仅仅是为了取悦监管机构。欧盟人工智能法案具有实际的约束力,英美律所诺顿罗氏富布莱特指出,“违反人工智能法案的处罚是相当严重的”。
其适用范围也超出了欧洲。“在EU领土之外运营的公司,如果进行涉及EU用户或数据的人工智能相关活动,可能会受到AI法案的规定,”这家法律公司警告说。如果这个法规和GDPR类似的话,那么这项立法将产生国际影响,尤其是在增加的欧盟与美国在人工智能上的合作之中。
人工智能工具可能使公司陷入超出人工智能法规范围的麻烦中。Rubrik 拒绝向 TechCrunch 分享评论,可能是因为其 IPO 安静期,但公司的文件提到其人工智能管理委员会评估了广泛的风险。
选择标准和分析包括考虑使用生成式人工智能工具可能引发涉及机密信息、个人数据和隐私、客户数据和合同义务、开源软件、版权和其他知识产权、透明度、输出准确性和可靠性以及安全性等问题。
请记住,Rubrik希望覆盖法律基础可能是由于多种其他原因。例如,也可能是为了显示它负责任地预防问题,这至关重要,因为Rubrik以前不仅处理过数据泄露和黑客问题,还处理过知识产权诉讼。
视觉问题
企业不仅会通过风险预防的视角来看待人工智能。他们和客户不想错过的机会将会出现。这就是为什么在生成式人工智能工具存在明显缺陷(如“幻觉”即倾向制造信息)的情况下,它们仍然被实施的原因之一。
对于企业来说,要取得一个恰到好处的平衡将是很重要的。一方面,夸大他们对人工智能的应用可能会提升其估值,无论这种应用是多么真实,或者对其底线有多大影响。另一方面,他们也需要让人们放心,消除潜在风险的顾虑。
"我们正处在人工智能演化的关键节点,人工智能的未来高度依赖于公众是否相信使用人工智能系统和公司”,隐私与安全软件提供商OneTrust的隐私律师Adomas Siudika在一篇关于这个话题的博文中写道。
建立人工智能治理委员会可能是试图增强信任的一个途径。