Zum Hauptinhalt springen

CSAM-Erkennung und -Meldung

Gestern aktualisiert

Anthropic verbietet strikt Material über sexuellen Kindesmissbrauch (CSAM) in unseren Diensten. Wir sind der Bekämpfung der CSAM-Verbreitung in unseren Produkten verpflichtet und werden gekennzeichnete Medien und zugehörige Informationen an das National Center for Missing and Exploited Children (NCMEC) melden.

Als nur ein Beispiel dafür, wie wir die CSAM-Verbreitung bekämpfen: In unseren eigenen Diensten verwenden wir ein Hash-Matching-Tool, um bekanntes CSAM zu erkennen und zu melden, das in den Eingaben eines Benutzers oder einer Organisation enthalten ist. Dieses Tool bietet Zugang zur NCMEC-Datenbank bekannter CSAM-Hash-Werte. Wenn ein Bild in einer Eingabe an unsere Dienste gesendet wird, berechnen wir einen Wahrnehmungs-Hash des Bildes. Dieser Hash wird automatisch mit der Datenbank abgeglichen. Im Falle einer Übereinstimmung werden wir NCMEC benachrichtigen und Informationen über die Eingabe und das zugehörige Konto bereitstellen.

Als Teil von Anthropics Sicherheitsprozess werden wir auch eine Benachrichtigung an den Benutzer oder die Organisation senden, wenn wir CSAM an NCMEC melden. Wenn Sie eine Benachrichtigung von uns über CSAM-Erkennung erhalten und glauben, dass wir einen Fehler gemacht haben, senden Sie bitte eine E-Mail an usersafety@anthropic.com.

Hat dies deine Frage beantwortet?