メインコンテンツにスキップ
すべてのコレクション信頼と安全
児童性的虐待画像(CSAM)の検出と報告
児童性的虐待画像(CSAM)の検出と報告
3週間以上前に更新

Anthropicは、当社のサービスにおける児童の性的虐待資料(CSAM)を厳しく禁止しています。当社は、当社の製品全体でCSAMの配布と戦うことに尽力しており、フラグが立てられたメディアと関連情報を全米行方不明・被搾取児童センター(NCMEC)に報告します。

CSAMの配布と戦う方法の一例として、当社の直営サービスでは、ハッシュマッチングツールを使用して、ユーザーまたは組織の入力に含まれる既知のCSAMを検出し報告しています。このツールは、NCMECの既知のCSAMハッシュ値データベースへのアクセスを提供します。画像が当社のサービスに入力として送信されると、その画像の知覚ハッシュを計算します。このハッシュは自動的にデータベースと比較されます。一致した場合、入力と関連するアカウントに関する情報をNCMECに通知し提供します。

Anthropicの安全プロセスの一環として、CSAMをNCMECに報告するたびに、ユーザーまたは組織に通知を送信します。CSAMの検出に関する通知を当社から受け取り、エラーがあったと思われる場合は、usersafety@anthropic.comまでメールでお問い合わせください。

こちらの回答で解決しましたか?