Passer au contenu principal
Toutes les collectionsConfiance et sécurité
Exceptions à notre politique d'utilisation
Exceptions à notre politique d'utilisation
Mis à jour il y a plus de 3 mois

Anthropic maintient une politique d'utilisation complète pour assurer le déploiement responsable de nos systèmes d'IA. Anthropic peut conclure des contrats avec des clients gouvernementaux qui adaptent les restrictions d'utilisation à la mission publique et aux autorités légales de ce client si, selon le jugement d'Anthropic, les restrictions d'utilisation contractuelles et les garanties applicables sont adéquates pour atténuer les préjudices potentiels abordés par cette politique d'utilisation.

Par exemple, avec des entités gouvernementales soigneusement sélectionnées, nous pouvons autoriser l'analyse du renseignement étranger conformément à la loi applicable. Toutes les autres restrictions d'utilisation de notre politique d'utilisation, y compris celles interdisant l'utilisation pour des campagnes de désinformation, la conception ou l'utilisation d'armes, la censure, la surveillance intérieure et les opérations cybernétiques malveillantes, restent en vigueur.

À l'heure actuelle, cette politique ne s'applique qu'aux modèles qui sont au niveau 2 de sécurité de l'IA (ASL-2) selon notre politique de mise à l'échelle responsable (RSP).

Quelles entités gouvernementales sont éligibles aux modifications de la politique d'utilisation ?

Notre évaluation visant à déterminer s'il faut adapter les restrictions d'utilisation à la mission et aux autorités légales d'une entité gouvernementale vise à équilibrer l'activation des utilisations bénéfiques de nos produits et services avec l'atténuation des préjudices potentiels, et comprend :

  • Notre évaluation de l'adéquation des modèles aux cas d'utilisation proposés.

  • Les autorités légales de l'agence en question.

  • La mesure dans laquelle l'agence est disposée à s'engager dans un dialogue continu avec Anthropic.

  • Les garanties en place pour prévenir les abus et atténuer les risques d'erreurs.

  • Le degré de surveillance indépendante et démocratique des organisations et de leurs utilisations des technologies d'IA, y compris les contraintes législatives ou réglementaires et autres engagements publics pertinents.

Avez-vous trouvé la réponse à votre question ?