Anthropicは、AI システムの責任ある展開を確保するために、包括的な利用ポリシーを維持しています。Anthropicは、Anthropicの判断において、契約上の使用制限と適用される保護措置がこの利用ポリシーで対処される潜在的な危害を軽減するのに十分であると判断した場合、その顧客の公的使命と法的権限に合わせて使用制限を調整する政府顧客との契約を締結する場合があります。
例えば、慎重に選択された政府機関に対しては、適用法に従って外国情報分析を許可する場合があります。ディスインフォメーションキャンペーン、武器の設計や使用、検閲、国内監視、悪意のあるサイバー操作のための使用を禁止するものを含む、当社の利用ポリシーにおける他のすべての使用制限は引き続き適用されます。
現時点では、このポリシーは当社の責任あるスケーリングポリシー(RSP)に基づくAI安全レベル2(ASL-2)のモデルにのみ適用されます。
どの政府機関が利用ポリシーの修正の対象となりますか?
政府機関の使命と法的権限に合わせて使用制限を調整するかどうかの評価は、当社の製品とサービスの有益な使用を可能にすることと潜在的な危害を軽減することのバランスを取ることを目的としており、以下を含みます:
提案された使用事例に対するモデルの適合性についての当社の評価。
当該機関の法的権限。
Anthropicとの継続的な対話に参加する機関の意欲の程度。
誤用を防ぎ、ミスのリスクを軽減するために設けられている保護措置。
組織とそのAI技術の使用に対する独立した民主的な監視の程度(立法または規制上の制約およびその他の関連する公的コミットメントを含む)。