Anthropicは、AIシステムの責任ある展開を確保するため、包括的な利用規約を維持しています。Anthropicは、契約上の利用制限と適用される保護措置が本利用規約で対処される潜在的な害を軽減するのに十分であるとAnthropicが判断する場合、その顧客の公的使命と法的権限に合わせて利用制限を調整する契約を政府顧客と締結することがあります。
例えば、慎重に選択された政府機関に対しては、適用法に従って外国情報分析を許可する場合があります。偽情報キャンペーン、兵器の設計や使用、検閲、国内監視、悪意のあるサイバー作戦での使用を禁止するものを含む、利用規約のその他すべての利用制限は引き続き適用されます。
現時点では、この方針は責任あるスケーリング方針(RSP)の下でAI安全レベル2(ASL-2)のモデルにのみ適用されます。
どの政府機関が利用規約の修正対象となりますか?
政府機関の使命と法的権限に合わせて利用制限を調整するかどうかの評価は、当社の製品とサービスの有益な利用を可能にすることと潜在的な害を軽減することのバランスを取ることを目的としており、以下を含みます:
提案された使用事例に対するモデルの適合性の評価。
当該機関の法的権限。
Anthropicとの継続的な対話に参加する機関の意欲の程度。
誤用を防止し、間違いのリスクを軽減するための保護措置。
立法上または規制上の制約やその他の関連する公的コミットメントを含む、組織とそのAI技術の使用に対する独立した民主的監視の程度。