OpenAI 和 Anthropic 将向 NIST 的 AI 安全研究所提供模型访问权限 媒体
OpenAI与Anthropic与美国国家标准技术局达成AI安全协议
关键要点
OpenAI与Anthropic已与国家标准技术局NIST的人工智能安全研究所AISI签署协议,允许该机构访问其AI模型。该协议将使AISI在新模型的发布前后进行测试和研究,以评估AI模型的能力与潜在安全风险。这一合作被视为推动更安全的AI技术发展的一项重要里程碑。在最新公告中,OpenAI和Anthropic宣布与国家标准技术局NIST的人工智能安全研究所AISI达成协议。这项合作将使该政府机构能够在未来的AI模型发布前后进行测试和评估。OpenAI的首席执行官Sam Altman在X平台的声明中表示:“我们很高兴能与美国人工智能安全研究所达成协议,以便对我们的未来模型进行预发布测试。”

根据协议,美国AI安全研究所将利用这些访问权限进行测试和研究,评估主要AI模型的能力及其潜在的安全风险。此外,该研究所还将向两家公司反馈,从而改进模型的安全性。
US AISI主任Elizabeth Kelly表示:“安全性是推动突破性技术创新的重要因素。随着这些协议的签署,我们期待与Anthropic和OpenAI开始技术合作,以推进AI安全科学。”她补充说:“这些协议只是开始,但它们是一个重要的里程碑,帮助我们负责任地引导AI的未来。”
AISI隶属于NIST,NIST是美国商务部的一部分。该研究所于2023年成立,旨在响应乔拜登总统关于安全、可靠和可用的人工智能开发与使用的行政命令。
Anthropic与OpenAI与联邦政府的早期合作
此前,OpenAI和Anthropic就已展现出与美国政府合作提升AI安全的主动性。例如,两家公司在2月份共同成为美国AI安全研究所联盟AISIC的成员,致力于制定AI测试和风险管理的指导方针。
两家公司也是去年向白宫提交自愿承诺的七大主要AI企业之一,承诺在开发和部署AI模型时优先考虑安全和安全问题,促进行业、政府和学术界之间的信息共享,以帮助进行AI风险管理,并向公众提供透明的信息,说明其模型的能力、局限性及潜在的不当使用。
海鸥加速器官网下载去年,Anthropic呼吁给NIST提供1500万美元的额外资金,以支持AI安全和创新的研究。最近,该公司也参与了对加州有争议AI安全法案的修订,旨在缓解人们对于该法案将对AI创新造成不当负担的担忧。
此外,Anthropic曾允许其Claude Sonnet 35模型在部署前由英国AI安全研究所进行测试,并将测试结果分享给美国同类机构,以促进双方的持续合作。
Anthropic联合创始人Jack Clark在其X平台的声明中表示:“期待与美国AISI进行下一模型的预发布测试!第三方测试是AI生态系统中非常重要的一部分,看到各国政府建立安全研究所来促进这一进程真是太棒了。”