Lewati ke konten utama
Semua KoleksiKepercayaan & Keamanan
Deteksi dan Pelaporan CSAM
Deteksi dan Pelaporan CSAM
Diperbarui lebih dari sebulan yang lalu

Anthropic secara tegas melarang Materi Pelecehan Seksual Anak (CSAM) pada layanan kami. Kami berkomitmen untuk memerangi penyebaran CSAM di seluruh produk kami dan akan melaporkan media yang ditandai dan informasi terkait ke National Center for Missing and Exploited Children (NCMEC).

Sebagai salah satu contoh bagaimana kami memerangi penyebaran CSAM: pada layanan pihak pertama kami, kami menggunakan alat pencocokan hash untuk mendeteksi dan melaporkan CSAM yang diketahui yang termasuk dalam input pengguna atau organisasi. Alat ini memberikan akses ke database nilai hash CSAM yang diketahui milik NCMEC. Ketika sebuah gambar dikirim dalam input ke layanan kami, kami akan menghitung hash perseptual dari gambar tersebut. Hash ini akan secara otomatis dibandingkan dengan database. Jika terjadi kecocokan, kami akan memberi tahu dan memberikan informasi kepada NCMEC tentang input tersebut dan Akun terkait.

Sebagai bagian dari proses keamanan Anthropic, kami juga akan mengirimkan pemberitahuan kepada pengguna atau organisasi setiap kali kami melaporkan CSAM ke NCMEC. Jika Anda menerima pemberitahuan dari kami tentang deteksi CSAM dan yakin kami telah membuat kesalahan, silakan kirim email ke usersafety@anthropic.com.

Apakah pertanyaan Anda terjawab?