Anthropicでは、デジタル空間における子供たちの特有の脆弱性とニーズを認識しています。より安全なデジタル環境を作り、リスクを軽減するために、未成年者に当社のAPIを組み込んだ製品と直接やり取りする能力を提供する組織は、以下の保護措置を実施すべきです:
1. 追加の技術的措置
未成年者向けの製品を提供する組織は、自社の特定のユースケースに合わせた追加の安全機能を実装すべきです。これは、エンドユーザーがAnthropicのサービスを組み込んだ製品とどのように相互作用する可能性があるかを最もよく理解しているからです。これらの安全対策には以下のようなものがありますが、これらに限定されません:
意図されたユーザーのみが製品にアクセスできるようにする年齢確認システム
不適切または有害なコンテンツをブロックするコンテンツモデレーションとフィルタリング
潜在的な問題を特定し対処するための監視および報告メカニズム
製品の安全かつ責任ある使用に関する未成年者向けの教育リソースとガイダンス
これらの組織固有の措置に加えて、Anthropicは未成年者を含む特定のエンドユーザー向けに製品体験をカスタマイズすることを目的とした技術的措置を提供する場合があります。例えば、未成年者向けの組織が包括的な安全対策の一環として実装すべき子供の安全システムプロンプトを提供する場合があります。これらの技術的措置は有用ですが、完璧ではないことに注意することが重要です。子供の安全に対する堅固なアプローチを確保するために、組織独自の安全機能と併用して使用すべきです。
2. 規制遵守
組織は、米国の児童オンラインプライバシー保護法(COPPA)などの適用されるすべての子供の安全とデータプライバシーに関する規制を遵守する責任があります。これらの規制の遵守は、組織のウェブサイトまたは同様の公開文書で明確に記載されるべきです。
3. 開示要件
組織は、ユーザーに対して、人間ではなくAIシステムとやり取りしていることを開示しなければなりません。
Anthropicは、これらの保護措置の遵守について定期的に組織を監査します。あなたの組織が高い違反率を示し、これらの安全性に関する推奨事項を実装していない場合、我々はそれらの実装を要求する場合があります。要求された際にこれらの推奨事項を実装しない場合、または高い違反率が続く場合、アカウントの一時停止または終了につながる可能性があります。