Chez Anthropic, nous reconnaissons les vulnérabilités et besoins uniques des enfants dans les espaces numériques. Afin de créer un environnement numérique plus sûr et d'atténuer les risques, les organisations offrant aux mineurs la possibilité d'interagir directement avec des produits qui intègrent notre/nos API devraient mettre en place les mesures de protection suivantes :
1. Mesures techniques supplémentaires
Les organisations dont les produits servent les mineurs devraient mettre en place des fonctionnalités de sécurité supplémentaires adaptées à leurs cas d'usage uniques, car elles sont les mieux placées pour comprendre les façons spécifiques dont leurs utilisateurs finaux peuvent interagir avec des produits qui intègrent les services d'Anthropic. Ces mesures de sécurité peuvent inclure, sans s'y limiter :
Des systèmes de vérification d'âge pour s'assurer que seuls les utilisateurs prévus peuvent accéder au produit
La modération et le filtrage de contenu pour bloquer le contenu inapproprié ou nuisible
Des mécanismes de surveillance et de signalement pour identifier et traiter les problèmes potentiels
Des ressources éducatives et des conseils pour les mineurs sur l'utilisation sûre et responsable du produit
En plus de ces mesures spécifiques aux organisations, Anthropic peut mettre à disposition des mesures techniques destinées à adapter les expériences produit pour certains utilisateurs finaux, y compris les mineurs. Par exemple, nous pouvons fournir une invite système de sécurité enfant, que les organisations servant les mineurs devraient implémenter dans le cadre d'une suite complète de mesures de sécurité. Il est important de noter que, bien qu'utiles, ces mesures techniques ne sont pas infaillibles et devraient être utilisées conjointement avec les propres fonctionnalités de sécurité de l'organisation pour assurer une approche robuste de la sécurité des enfants.
2. Conformité réglementaire
Il est de la responsabilité des organisations de se conformer à toutes les réglementations applicables en matière de sécurité des enfants et de confidentialité des données, telles que le Children's Online Privacy Protection Act (COPPA) aux États-Unis. La conformité à ces réglementations devrait être clairement indiquée sur le site web de l'organisation ou dans une documentation similaire accessible au public.
3. Exigences de divulgation
Les organisations doivent divulguer à leurs utilisateurs qu'ils interagissent avec un système d'IA plutôt qu'avec un humain.
Anthropic effectuera périodiquement des audits des organisations pour vérifier la conformité à ces mesures de protection. Si votre organisation a un taux de violation élevé et n'a pas mis en place ces recommandations de sécurité, nous pouvons vous demander de les implémenter. L'échec à implémenter ces recommandations lorsque demandé, ou un taux de violation élevé continu, peut conduire à la suspension ou à la résiliation de votre compte.