无论您是刚开始为Claude的API部署设置信任与安全系统,还是您的部署已经在运行,以下是在构建您自己的AI安全程序时需要考虑的一些策略。
基本保障措施
存储与每个API调用相关联的ID,这样如果您需要定位特定的违规内容,您就能够在系统中找到它。
考虑为用户分配ID,这可以帮助您追踪违反Anthropic可接受使用政策的特定个人,从而在滥用情况下采取更有针对性的行动。
是否通过API向Anthropic传递ID由您决定。但是,如果提供了ID,我们可以更精确地定位违规行为。为了帮助保护最终用户的隐私,传递的任何ID都应该进行加密哈希处理。
考虑要求客户在使用Claude之前在您的平台上注册账户
确保您的客户了解允许的使用方式
中级保障措施
创建定制框架,将最终用户与Claude的交互限制在一组有限的提示中,或者只允许Claude审查您已有的特定知识库,这将减少用户进行违规行为的可能性。
启用额外的安全过滤器 - Anthropic构建的免费实时审核工具,用于帮助检测潜在有害的提示并管理实时行动以减少危害
有关如何启用我们的额外安全过滤器的更多信息,请联系usersafety@anthropic.com。
对于Bedrock客户:
激活您的私有S3存储桶,以便存储提示和完成内容供您自己评估
高级保障措施
在将所有最终用户的提示发送给Claude之前,对其运行审核API,以确保它们不会造成伤害
全面保障措施
建立内部人工审核系统,标记被Claude(用于内容审核)或审核API标记为有害的提示,这样您就可以干预,限制或删除违规率高的用户。