メインコンテンツにスキップ

CSAM検出と報告

今週アップデートされました

Anthropicは、当社のサービス上での児童性的虐待素材(CSAM)を厳格に禁止しています。当社は製品全体でのCSAM配布と闘うことをお約束し、フラグが立てられたメディアと関連情報を全米行方不明・被搾取児童センター(NCMEC)に報告いたします。

CSAM配布と闘う方法の一例として:当社のファーストパーティサービスでは、ユーザーまたは組織の入力に含まれる既知のCSAMを検出し報告するためにハッシュマッチングツールを使用しています。このツールは、NCMECの既知のCSAMハッシュ値データベースへのアクセスを提供します。画像が当社のサービスへの入力として送信された場合、その画像の知覚ハッシュを計算します。このハッシュは自動的にデータベースと照合されます。一致した場合、NCMECに通知し、入力と関連するアカウントに関する情報を提供します。

Anthropicの安全プロセスの一環として、CSAMをNCMECに報告する際は、ユーザーまたは組織にも通知を送信します。CSAM検出に関する当社からの通知を受け取り、当社が誤りを犯したと思われる場合は、usersafety@anthropic.comまでメールでご連絡ください。

こちらの回答で解決しましたか?