CSAM-Erkennung und -Meldung
Vor über einer Woche aktualisiert

Anthropic verbietet strengstens Kinderpornografie (CSAM) auf unseren Diensten. Wir setzen uns dafür ein, die Verbreitung von CSAM über unsere Produkte zu bekämpfen, und werden gemeldete Medien und zugehörige Informationen an das National Center for Missing and Exploited Children (NCMEC) melden.

Als nur ein Beispiel dafür, wie wir die Verbreitung von CSAM bekämpfen: Auf unseren eigenen Diensten verwenden wir ein Hash-Matching-Tool, um bekannte CSAM zu erkennen und zu melden, die in den Eingaben eines Benutzers oder einer Organisation enthalten sind. Dieses Tool bietet Zugriff auf NCMECs Datenbank bekannter CSAM-Hashwerte. Wenn ein Bild als Eingabe an unsere Dienste gesendet wird, berechnen wir einen perzeptuellen Hash des Bildes. Dieser Hash wird automatisch mit der Datenbank abgeglichen. Im Falle einer Übereinstimmung werden wir das NCMEC über die Eingabe und das zugehörige Konto informieren.

Im Rahmen des Sicherheitsprozesses von Anthropic werden wir dem Benutzer oder der Organisation auch jedes Mal eine Benachrichtigung senden, wenn wir CSAM an das NCMEC melden. Wenn Sie eine Benachrichtigung von uns über die Erkennung von CSAM erhalten und glauben, dass wir uns geirrt haben, senden Sie bitte eine E-Mail an usersafety@anthropic.com.

Hat dies Ihre Frage beantwortet?