我们创立Anthropic的目的是将安全置于人工智能研究和人工智能产品的前沿。我们的研究为我们的商业产品提供信息,而我们的模型是当今最可靠、最能抵御滥用的模型之一。虽然我们的API仍处于封闭测试阶段,但我们正在根据用户反馈改进我们的安全过滤器 - 我们期望我们的商业客户在我们的安全功能失效时会要求我们负责。
但我们相信安全是一种共同责任。我们的功能并非万无一失,而且忠诚的合作伙伴是第二道防线。根据您的使用情况,审核步骤会有所不同,但以下是一些额外的安全建议:
使用Claude作为内容审核过滤器来识别和防止违规行为。
对于面向外部的产品,向您的用户披露他们正在与人工智能系统互动。
对于敏感信息和决策制定,在向消费者传播内容之前,让合格的专业人员进行审核。
我们鼓励您向usersafety@anthropic.com发送反馈或具体建议。对于现有的商业合作伙伴,我们建议您加入我们的Discord服务器,并与其他开发者交流想法。