메인 콘텐츠로 건너뛰기

Anthropic 모델의 책임감 있는 사용: 미성년자를 대상으로 하는 조직을 위한 가이드라인

이번 주에 업데이트함

Anthropic에서는 디지털 공간에서 아동들이 가진 고유한 취약성과 필요를 인식하고 있습니다. 더 안전한 디지털 환경을 조성하고 위험을 완화하기 위해, 미성년자가 당사의 API를 통합한 제품과 직접 상호작용할 수 있도록 하는 조직들은 다음과 같은 보호 조치를 구현해야 합니다:

1. 추가 기술적 조치

미성년자에게 서비스를 제공하는 제품을 운영하는 조직들은 고유한 사용 사례에 맞춘 추가 안전 기능을 구현해야 합니다. 이들은 최종 사용자가 Anthropic의 서비스를 통합한 제품과 상호작용하는 구체적인 방식을 이해하기에 가장 적합한 위치에 있기 때문입니다. 이러한 안전 조치에는 다음이 포함될 수 있으나 이에 국한되지 않습니다:

  • 의도된 사용자만이 제품에 접근할 수 있도록 하는 연령 확인 시스템

  • 부적절하거나 유해한 콘텐츠를 차단하는 콘텐츠 조정 및 필터링

  • 잠재적 문제를 식별하고 해결하기 위한 모니터링 및 신고 메커니즘

  • 미성년자를 위한 제품의 안전하고 책임감 있는 사용에 대한 교육 자료 및 지침

이러한 조직별 조치 외에도, Anthropic은 미성년자를 포함한 특정 최종 사용자를 위해 제품 경험을 맞춤화하기 위한 기술적 조치를 제공할 수 있습니다. 예를 들어, 미성년자에게 서비스를 제공하는 조직들이 포괄적인 안전 조치 모음의 일부로 구현해야 하는 아동 안전 시스템 프롬프트를 제공할 수 있습니다. 이러한 기술적 조치가 도움이 되지만 완벽하지 않으며, 아동 안전에 대한 견고한 접근 방식을 보장하기 위해 조직 자체의 안전 기능과 함께 사용되어야 한다는 점을 유의하는 것이 중요합니다.

2. 규제 준수

미국의 아동 온라인 개인정보 보호법(COPPA)과 같은 모든 해당 아동 안전 및 데이터 개인정보 보호 규정을 준수하는 것은 조직의 책임입니다. 이러한 규정의 준수는 조직의 웹사이트나 이와 유사한 공개 문서에 명확히 명시되어야 합니다.

3. 공개 요구사항

조직들은 사용자들이 인간이 아닌 AI 시스템과 상호작용하고 있다는 사실을 공개해야 합니다.

Anthropic은 이러한 보호 조치의 준수 여부를 주기적으로 감사할 것입니다. 귀하의 조직이 높은 위반율을 보이고 이러한 안전 권고사항을 구현하지 않은 경우, 이를 구현하도록 요청할 수 있습니다. 요청 시 이러한 권고사항을 구현하지 않거나 지속적으로 높은 위반율을 보일 경우, 계정이 정지되거나 해지될 수 있습니다.

답변이 도움되었나요?