Zum Hauptinhalt springen
Alle KollektionenVertrauen & Sicherheit
Erkennung und Meldung von CSAM
Erkennung und Meldung von CSAM
Diese Woche aktualisiert

Anthropic verbietet strikt Material zum sexuellen Missbrauch von Kindern (CSAM) auf unseren Diensten. Wir setzen uns dafür ein, die Verbreitung von CSAM über unsere Produkte zu bekämpfen, und werden markierte Medien und damit verbundene Informationen an das National Center for Missing and Exploited Children (NCMEC) melden.

Als nur ein Beispiel dafür, wie wir die Verbreitung von CSAM bekämpfen: Bei unseren eigenen Diensten verwenden wir ein Hash-Matching-Tool, um bekanntes CSAM zu erkennen und zu melden, das in den Eingaben eines Benutzers oder einer Organisation enthalten ist. Dieses Tool bietet Zugang zur Datenbank des NCMEC mit bekannten CSAM-Hash-Werten. Wenn ein Bild in einer Eingabe an unsere Dienste gesendet wird, berechnen wir einen perzeptuellen Hash des Bildes. Dieser Hash wird automatisch mit der Datenbank abgeglichen. Im Falle einer Übereinstimmung werden wir das NCMEC benachrichtigen und Informationen über die Eingabe und das zugehörige Konto bereitstellen.

Im Rahmen des Sicherheitsprozesses von Anthropic werden wir den Benutzer oder die Organisation auch jedes Mal benachrichtigen, wenn wir CSAM an das NCMEC melden. Wenn Sie eine Benachrichtigung von uns über die Erkennung von CSAM erhalten und glauben, dass wir einen Fehler gemacht haben, senden Sie bitte eine E-Mail an usersafety@anthropic.com.

Hat dies deine Frage beantwortet?