跳转到主要内容
所有收藏信任与安全
负责任地使用Anthropic的模型:为服务未成年人的组织提供的指南
负责任地使用Anthropic的模型:为服务未成年人的组织提供的指南
超过 2 周前更新

在Anthropic,我们认识到儿童在数字空间中的独特脆弱性和需求。为了创造一个更安全的数字环境并降低风险,为未成年人提供直接与包含我们API的产品互动能力的组织应该实施以下保护措施:

1. 额外的技术措施

为未成年人提供服务的组织应该根据其独特的使用场景实施额外的安全功能,因为他们最了解其最终用户可能与包含Anthropic服务的产品互动的具体方式。这些安全措施可能包括但不限于:

  • 年龄验证系统,以确保只有预期用户才能访问产品

  • 内容审核和过滤,以阻止不适当或有害的内容

  • 监控和报告机制,以识别和解决潜在问题

  • 为未成年人提供关于安全和负责任使用产品的教育资源和指导

除了这些特定于组织的措施外,Anthropic可能会提供旨在为某些最终用户(包括未成年人)定制产品体验的技术措施。例如,我们可能会提供儿童安全系统提示,服务未成年人的组织应该将其作为全面安全措施套件的一部分来实施。重要的是要注意,虽然这些技术措施很有帮助,但它们并非万无一失,应该与组织自己的安全功能结合使用,以确保对儿童安全采取全面的方法。

2. 监管合规

组织有责任遵守所有适用的儿童安全和数据隐私法规,例如美国的《儿童在线隐私保护法》(COPPA)。对这些法规的遵守应在组织的网站或类似的面向公众的文档中明确说明。

3. 披露要求

组织必须向其用户披露他们正在与人工智能系统而不是人类互动。

Anthropic将定期审核组织是否遵守这些保护措施。如果您的组织违规率高且未实施这些安全建议,我们可能会要求您实施它们。在被要求时未能实施这些建议,或持续保持高违规率,可能导致您的账户被暂停或终止。

这是否解答了您的问题?