无论您是刚开始为Claude的API部署设置信任与安全措施,还是您的部署已经在运行,以下是在构建您自己的AI安全程序时需要考虑的一些策略。
基本保障措施
存储与每个API调用相关联的ID,以便在需要时能够在您的系统中精确定位特定的违规内容。
考虑为用户分配ID,这可以帮助您追踪违反Anthropic可接受使用政策的特定个人,从而在滥用情况下采取更有针对性的行动。
是否通过API向Anthropic传递ID由您决定。但如果提供,我们可以更精确地定位违规行为。为了帮助保护最终用户的隐私,传递的任何ID都应进行加密哈希处理。
考虑要求客户在使用Claude之前在您的平台上注册账户
确保您的客户了解允许的使用方式
中级保障措施
创建定制框架,将最终用户与Claude的交互限制在一组有限的提示中,或者只允许Claude审查您已有的特定知识库,这将降低用户从事违规行为的可能性。
启用额外的安全过滤器 - Anthropic构建的免费实时审核工具,用于帮助检测潜在有害的提示并管理实时行动以减少危害
有关如何启用我们的额外安全过滤器的更多信息,请联系usersafety@anthropic.com。
对于Bedrock客户:
激活您的私有S3存储桶,以便存储提示和完成内容供您自己评估
高级保障措施
在将所有最终用户提示发送给Claude之前,对其运行审核API,以确保它们不具有危害性
全面保障措施
建立内部人工审核系统,标记被Claude(用于内容审核)或审核API标记为有害的提示,以便您可以干预,限制或删除违规率高的用户。