Ir al contenido principal
Todas las coleccionesConfianza y seguridad
Detección y Reporte de Material de Abuso Sexual Infantil (CSAM)
Detección y Reporte de Material de Abuso Sexual Infantil (CSAM)
Actualizado hace más de una semana

Anthropic prohíbe estrictamente el Material de Abuso Sexual Infantil (CSAM, por sus siglas en inglés) en nuestros servicios. Estamos comprometidos a combatir la distribución de CSAM en todos nuestros productos y reportaremos los medios señalados y la información relacionada al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés).

Como solo un ejemplo de cómo estamos combatiendo la distribución de CSAM: en nuestros servicios de primera parte, utilizamos una herramienta de comparación de hashes para detectar y reportar CSAM conocido que se incluye en las entradas de un usuario u organización. Esta herramienta proporciona acceso a la base de datos de valores hash de CSAM conocidos del NCMEC. Cuando se envía una imagen en una entrada a nuestros servicios, calcularemos un hash perceptual de la imagen. Este hash se comparará automáticamente con la base de datos. En caso de coincidencia, notificaremos y proporcionaremos al NCMEC información sobre la entrada y la Cuenta relacionada.

Como parte del proceso de seguridad de Anthropic, también enviaremos un aviso al usuario u organización cada vez que reportemos CSAM al NCMEC. Si recibes una notificación nuestra sobre la detección de CSAM y crees que hemos cometido un error, por favor envía un correo electrónico a usersafety@anthropic.com.

¿Ha quedado contestada tu pregunta?