Anthropicでは、デジタル空間における子どもたちの独特な脆弱性とニーズを認識しています。より安全なデジタル環境を構築し、リスクを軽減するため、未成年者が当社のAPI(s)を組み込んだ製品と直接やり取りできる機能を提供する組織は、以下の保護措置を実装する必要があります:
1. 追加の技術的措置
未成年者にサービスを提供する製品を持つ組織は、それぞれの独自のユースケースに合わせた追加の安全機能を実装する必要があります。これらの組織は、エンドユーザーがAnthropicのサービスを組み込んだ製品とどのような方法でやり取りするかを理解するのに最も適した立場にあるためです。これらの安全措置には以下が含まれますが、これらに限定されません:
意図されたユーザーのみが製品にアクセスできるようにする年齢確認システム
不適切または有害なコンテンツをブロックするコンテンツモデレーションとフィルタリング
潜在的な問題を特定し対処するための監視と報告メカニズム
製品の安全で責任ある使用に関する未成年者向けの教育リソースとガイダンス
これらの組織固有の措置に加えて、Anthropicは未成年者を含む特定のエンドユーザー向けに製品体験を調整することを意図した技術的措置を利用可能にする場合があります。例えば、未成年者にサービスを提供する組織が包括的な安全措置の一部として実装すべき子ども安全システムプロンプトを提供する場合があります。これらの技術的措置は有用ではありますが、完璧ではないことに注意することが重要であり、子どもの安全に対する堅牢なアプローチを確保するために、組織独自の安全機能と併用する必要があります。
2. 規制遵守
米国の児童オンラインプライバシー保護法(COPPA)など、適用されるすべての子どもの安全とデータプライバシー規制を遵守することは組織の責任です。これらの規制の遵守は、組織のウェブサイトまたは同様の公開文書に明確に記載されている必要があります。
3. 開示要件
組織は、ユーザーが人間ではなくAIシステムとやり取りしていることをユーザーに開示しなければなりません。
Anthropicは、これらの保護措置の遵守について組織を定期的に監査します。お客様の組織の違反率が高く、これらの安全推奨事項を実装していない場合、実装をお願いする場合があります。要請された際にこれらの推奨事項を実装しない場合、または違反率が継続的に高い場合、アカウントの停止または終了につながる可能性があります。