Lewati ke konten utama

Deteksi dan Pelaporan CSAM

Diperbarui minggu ini

Anthropic secara tegas melarang Materi Pelecehan Seksual Anak (CSAM) di layanan kami. Kami berkomitmen untuk memerangi distribusi CSAM di seluruh produk kami dan akan melaporkan media yang ditandai serta informasi terkait kepada National Center for Missing and Exploited Children (NCMEC).

Sebagai salah satu contoh bagaimana kami memerangi distribusi CSAM: pada layanan pihak pertama kami, kami menggunakan alat pencocokan hash untuk mendeteksi dan melaporkan CSAM yang dikenal yang disertakan dalam input pengguna atau organisasi. Alat ini menyediakan akses ke database NCMEC yang berisi nilai hash CSAM yang dikenal. Ketika sebuah gambar dikirim dalam input ke layanan kami, kami akan menghitung hash perseptual dari gambar tersebut. Hash ini akan secara otomatis dibandingkan dengan database. Dalam kasus terjadi kecocokan, kami akan memberitahu dan menyediakan informasi kepada NCMEC tentang input tersebut dan Akun terkait.

Sebagai bagian dari proses keamanan Anthropic, kami juga akan mengirimkan pemberitahuan kepada pengguna atau organisasi setiap kali kami melaporkan CSAM kepada NCMEC. Jika Anda menerima pemberitahuan dari kami tentang deteksi CSAM dan yakin bahwa kami telah melakukan kesalahan, silakan kirim email ke usersafety@anthropic.com.

Apakah pertanyaan Anda terjawab?