메인 콘텐츠로 건너뛰기
모든 콜렉션신뢰와 안전
미성년자를 대상으로 하는 기관의 Anthropic 모델 책임감 있는 사용: 가이드라인
미성년자를 대상으로 하는 기관의 Anthropic 모델 책임감 있는 사용: 가이드라인
최소 2주 전에 업데이트됨

Anthropic은 디지털 공간에서 아동의 고유한 취약성과 요구사항을 인식하고 있습니다. 더 안전한 디지털 환경을 조성하고 위험을 완화하기 위해, 미성년자에게 당사의 API를 통합한 제품과 직접 상호작용할 수 있는 기능을 제공하는 조직은 다음과 같은 안전장치를 구현해야 합니다:

1. 추가 기술적 조치

미성년자를 대상으로 하는 제품을 제공하는 조직은 자신들의 고유한 사용 사례에 맞춘 추가 안전 기능을 구현해야 합니다. 이는 그들이 최종 사용자가 Anthropic의 서비스를 통합한 제품과 상호작용할 수 있는 특정 방식을 가장 잘 이해하고 있기 때문입니다. 이러한 안전 조치에는 다음이 포함될 수 있지만 이에 국한되지는 않습니다:

  • 의도된 사용자만 제품에 접근할 수 있도록 하는 연령 확인 시스템

  • 부적절하거나 유해한 콘텐츠를 차단하는 콘텐츠 조정 및 필터링

  • 잠재적 문제를 식별하고 해결하기 위한 모니터링 및 보고 메커니즘

  • 제품의 안전하고 책임감 있는 사용에 대한 미성년자를 위한 교육 자료 및 지침

이러한 조직별 조치 외에도, Anthropic은 미성년자를 포함한 특정 최종 사용자를 위해 제품 경험을 맞춤화하기 위한 기술적 조치를 제공할 수 있습니다. 예를 들어, 우리는 아동 안전 시스템 프롬프트를 제공할 수 있으며, 미성년자를 대상으로 하는 조직은 이를 포괄적인 안전 조치의 일부로 구현해야 합니다. 이러한 기술적 조치가 도움이 되지만 완벽하지 않다는 점을 유의해야 하며, 아동 안전에 대한 강력한 접근 방식을 보장하기 위해 조직 자체의 안전 기능과 함께 사용해야 합니다.

2. 규제 준수

미국의 아동 온라인 개인정보 보호법(COPPA)과 같은 모든 해당 아동 안전 및 데이터 개인정보 보호 규정을 준수하는 것은 조직의 책임입니다. 이러한 규정 준수는 조직의 웹사이트나 유사한 대중에게 공개된 문서에 명확히 명시되어야 합니다.

3. 공개 요구사항

조직은 사용자들에게 그들이 인간이 아닌 AI 시스템과 상호작용하고 있다는 사실을 공개해야 합니다.

Anthropic은 이러한 안전장치 준수 여부를 주기적으로 감사할 것입니다. 만약 귀하의 조직이 높은 위반율을 보이고 이러한 안전 권장사항을 구현하지 않았다면, 우리는 귀하에게 이를 구현하도록 요청할 수 있습니다. 요청 시 이러한 권장사항을 구현하지 않거나 지속적으로 높은 위반율을 보이는 경우, 귀하의 계정이 정지되거나 해지될 수 있습니다.

답변이 도움되었나요?