すべてのコレクション
信頼と安全
児童性的虐待画像の検出と報告
児童性的虐待画像の検出と報告
一週間前以上前にアップデートされました

Anthropicは、当社のサービス上での児童性的虐待コンテンツ(CSAM)を厳しく禁止しています。私たちは、製品全体でのCSAMの流通と戦うことにコミットしており、フラグが立てられたメディアと関連情報を国立行方不明・被搾取児童センター(NCMEC)に報告します。

CSAM流通と戦うための一例として、第一者サービスではハッシュマッチングツールを使用して、ユーザーまたは組織の入力に含まれる既知のCSAMを検出および報告しています。このツールは、NCMECの既知のCSAMハッシュ値データベースにアクセスできます。画像がサービスへの入力として送信されると、画像の知覚ハッシュを計算します。このハッシュはデータベースと自動的に比較されます。一致する場合は、入力と関連アカウントに関する情報をNCMECに通知し提供します。

Anthropicの安全プロセスの一環として、NCMECにCSAMを報告するたびに、ユーザーまたは組織に通知を送信します。CSAMの検出に関する通知を受け取り、誤りがあると考える場合は、usersafety@anthropic.com にメールでご連絡ください。

こちらの回答で解決しましたか?