Anthropic维护一项全面的使用政策,以确保我们的AI系统得到负责任的部署。如果Anthropic判断合同使用限制和适用的保障措施足以减轻本使用政策所涉及的潜在危害,Anthropic可能会与政府客户签订合同,根据该客户的公共使命和法律权限定制使用限制。
例如,对于经过仔细筛选的政府实体,我们可能允许根据适用法律进行外国情报分析。我们使用政策中的所有其他使用限制仍然有效,包括禁止用于虚假信息宣传活动、武器设计或使用、审查制度、国内监控和恶意网络行动的限制。
目前,此政策仅适用于我们负责任扩展政策(RSP)下AI安全级别2(ASL-2)的模型。
哪些政府实体有资格获得使用政策修改?
我们对是否根据政府实体的使命和法律权限定制使用限制的评估旨在平衡启用我们产品和服务的有益用途与减轻潜在危害,包括:
我们对模型是否适合拟议用例的评估。
相关机构的法律权限。
该机构与Anthropic进行持续对话的意愿程度。
防止滥用和减轻错误风险的保障措施。
对组织及其AI技术使用的独立和民主监督程度,包括立法或监管约束以及其他相关的公共承诺。