Semua Koleksi
Kepercayaan & Keamanan
Deteksi dan Pelaporan CSAM
Deteksi dan Pelaporan CSAM
Diperbarui lebih dari satu minggu yang lalu

Anthropic secara tegas melarang Materi Pelecehan Seksual Anak (CSAM) pada layanan kami. Kami berkomitmen untuk memerangi distribusi CSAM di seluruh produk kami dan akan melaporkan media yang ditandai dan informasi terkait ke Pusat Nasional untuk Anak-anak Hilang dan Dieksploitasi (NCMEC).

Sebagai salah satu contoh bagaimana kami memerangi distribusi CSAM: pada layanan pihak pertama kami, kami menggunakan alat pencocokan hash untuk mendeteksi dan melaporkan CSAM yang diketahui yang dimasukkan dalam input pengguna atau organisasi. Alat ini menyediakan akses ke basis data nilai hash CSAM NCMEC. Ketika gambar dikirim dalam input ke layanan kami, kami akan menghitung hash perseptual gambar tersebut. Hash ini akan secara otomatis dibandingkan dengan basis data. Dalam kasus kecocokan, kami akan memberi tahu dan menyediakan NCMEC informasi tentang input dan Akun terkait.

Sebagai bagian dari proses keamanan Anthropic, kami juga akan mengirim pemberitahuan kepada pengguna atau organisasi setiap kali kami melaporkan CSAM ke NCMEC. Jika Anda menerima pemberitahuan dari kami tentang deteksi CSAM dan percaya bahwa kami telah membuat kesalahan, silakan kirim email ke usersafety@anthropic.com.

Apakah pertanyaan Anda terjawab?