Passer au contenu principal
Toutes les collectionsConfiance et sécurité
Détection et signalement de matériel d'exploitation sexuelle d'enfants (CSAM)
Détection et signalement de matériel d'exploitation sexuelle d'enfants (CSAM)
Mis à jour il y a plus d’une semaine

Anthropic interdit strictement le matériel d'abus sexuel d'enfants (CSAM) sur nos services. Nous nous engageons à combattre la distribution de CSAM à travers nos produits et signalerons les médias suspects et les informations connexes au National Center for Missing and Exploited Children (NCMEC).

Voici un exemple de la façon dont nous luttons contre la distribution de CSAM : sur nos services propriétaires, nous utilisons un outil de correspondance de hachage pour détecter et signaler les CSAM connus qui sont inclus dans les entrées d'un utilisateur ou d'une organisation. Cet outil donne accès à la base de données des valeurs de hachage de CSAM connus du NCMEC. Lorsqu'une image est envoyée en entrée à nos services, nous calculons un hachage perceptuel de l'image. Ce hachage sera automatiquement comparé à la base de données. En cas de correspondance, nous informerons le NCMEC et lui fournirons des informations sur l'entrée et le compte associé.

Dans le cadre du processus de sécurité d'Anthropic, nous enverrons également un avis à l'utilisateur ou à l'organisation chaque fois que nous signalons un CSAM au NCMEC. Si vous recevez une notification de notre part concernant la détection de CSAM et que vous pensez que nous avons commis une erreur, veuillez envoyer un e-mail à usersafety@anthropic.com.

Avez-vous trouvé la réponse à votre question ?