Passer au contenu principal

Détection et signalement de CSAM

Mis à jour cette semaine

Anthropic interdit strictement le matériel d'abus sexuel d'enfants (CSAM) sur nos services. Nous nous engageons à lutter contre la distribution de CSAM sur nos produits et signalerons les médias signalés et les informations connexes au National Center for Missing and Exploited Children (NCMEC).

À titre d'exemple de la façon dont nous luttons contre la distribution de CSAM : sur nos services propriétaires, nous utilisons un outil de correspondance de hachage pour détecter et signaler le CSAM connu qui est inclus dans les entrées d'un utilisateur ou d'une organisation. Cet outil fournit un accès à la base de données du NCMEC des valeurs de hachage CSAM connues. Lorsqu'une image est envoyée en entrée à nos services, nous calculerons un hachage perceptuel de l'image. Ce hachage sera automatiquement comparé à la base de données. En cas de correspondance, nous notifierons et fournirons au NCMEC des informations sur l'entrée et le compte associé.

Dans le cadre du processus de sécurité d'Anthropic, nous enverrons également un avis à l'utilisateur ou à l'organisation chaque fois que nous signalons du CSAM au NCMEC. Si vous recevez une notification de notre part concernant la détection de CSAM et pensez que nous avons commis une erreur, veuillez envoyer un e-mail à usersafety@anthropic.com.

Avez-vous trouvé la réponse à votre question ?