跳转到主要内容

我正在计划使用Claude推出一款产品。我应该采取哪些步骤来确保不违反Anthropic的使用政策?

更新于今天

我们创立Anthropic是为了将安全性置于AI研究和AI产品的前沿。我们的研究为我们的商业产品提供信息支撑,我们的模型是目前可用的最可靠安全且最能抵御滥用的模型之一。虽然我们的API仍处于封闭测试阶段,但我们正在根据用户反馈改进我们的安全过滤器——我们期望我们的商业客户在我们的安全功能出现故障时会追究我们的责任。

但我们相信安全是一项共同责任。我们的功能并非万无一失,承诺的合作伙伴是第二道防线。根据您的使用场景,审核步骤会有所不同,但以下是一些额外的安全建议:

  • 使用Claude作为内容审核过滤器来识别和防止违规行为。

  • 对于面向外部的产品,向您的用户披露他们正在与AI系统交互。

  • 对于敏感信息和决策制定,在向消费者传播内容之前,请让合格的专业人员审查内容。

我们鼓励您向usersafety@anthropic.com发送反馈或具体建议。对于现有的商业合作伙伴,我们建议加入我们的Discord服务器,与其他开发者交流想法。

这是否解答了您的问题?