
近日,全球知名的人工智能公司OpenAI和Anthropic宣布了一项重要举措,与美国人工智能安全研究所(US AI Safety Institute)签署谅解备忘录,承诺在发布重大新的人工智能模型前,将允许美国政府提前访问并评估这些模型的安全性。这一合作被视为推动AI技术安全发展的重要里程碑。
根据协议内容,两家公司在其AI模型公开发布之前及之后,都将向美国政府开放访问权限,以便共同识别并缓解潜在的安全风险。美国政府表示,这一合作将有助于增强对AI技术的理解和监管,确保AI技术的安全可控发展。
OpenAI首席战略官Jason Kwon对此次合作表示高度支持,他强调:“我们非常支持美国AI安全研究所的使命,并期待通过合作,共同制定AI模型的安全最佳实践和标准。我们相信,这一合作将在确保美国在负责任开发AI方面的领导地位上发挥关键作用。”
Anthropic公司同样对此次合作寄予厚望。公司联合创始人兼政策负责人Jack Clark表示:“确保AI安全可靠对于发挥该技术的积极影响至关重要。通过这种测试和合作方式,我们能够更好地发现和减少AI带来的风险,推动负责任的AI发展。我们为能参与这项重要工作感到自豪,并期望为AI的安全性和可信度设立新的标准。”
值得注意的是,这一合作正值全球范围内对AI监管政策讨论的热点时期。在联邦和州立法机构纷纷探讨如何平衡AI技术创新与安全监管之际,OpenAI和Anthropic的举措无疑为行业树立了典范。周三,加利福尼亚州立法者通过了《前沿人工智能模型安全创新法案》(SB 1047),要求该州的人工智能公司在训练先进基础模型前采取特定安全措施。尽管该法案已进行修改并等待州长签署,但仍引发了业界的广泛关注和讨论。
美国白宫也一直在积极寻求从主要AI公司获得关于安全措施的自愿承诺。多家领先的AI公司已作出非约束性承诺,投资于网络安全和歧视研究,并致力于对AI生成内容进行水印标记等安全措施。
美国人工智能安全研究所所长伊丽莎白·凯利在一份声明中强调:“这些新的协议只是开始,但它们是我们努力帮助负责任地管理AI未来的一个重要里程碑。”她表示,未来将继续推动AI技术的安全发展,确保AI技术能够造福人类社会。
此次OpenAI与Anthropic与美国政府的合作,无疑为AI技术的安全发展注入了新的动力。随着AI技术的不断进步和应用领域的不断拓展,如何确保AI技术的安全性和可信度将成为全球关注的焦点。通过加强合作与监管,我们有理由相信AI技术将在未来发挥更加积极的作用,推动人类社会的进步和发展。