跳转到主要内容
所有收藏信任与安全
我们使用政策的例外情况
我们使用政策的例外情况
超过 2 周前更新

Anthropic 维护一个全面的使用政策,以确保负责任地部署我们的人工智能系统。如果在 Anthropic 的判断中,合同使用限制和适用的保障措施足以缓解本使用政策所解决的潜在危害,Anthropic 可能会与政府客户签订合同,根据该客户的公共使命和法律权限定制使用限制。

例如,对于经过仔细筛选的政府实体,我们可能允许根据适用法律进行外国情报分析。我们使用政策中的所有其他使用限制仍然有效,包括禁止用于虚假信息宣传、武器设计或使用、审查、国内监视和恶意网络操作。

目前,该政策仅适用于根据我们的负责任扩展政策(RSP)达到人工智能安全等级 2(ASL-2)的模型。

哪些政府实体有资格获得使用政策修改?

我们评估是否根据政府实体的使命和法律权限定制使用限制,旨在平衡实现我们产品和服务的有益使用与减轻潜在危害,包括:

  • 我们对模型是否适合提议的用例的评估。

  • 相关机构的法律权限。

  • 该机构愿意与 Anthropic 进行持续对话的程度。

  • 防止滥用和减轻错误风险的现有保障措施。

  • 对这些组织及其使用人工智能技术的独立和民主监督程度,包括立法或监管限制以及其他相关的公开承诺。

这是否解答了您的问题?