Passer au contenu principal

Outils de protection des API

Mis à jour aujourd’hui

Que vous commenciez tout juste à mettre en place des garanties pour votre déploiement API de Claude, ou que votre déploiement soit déjà en cours d'exécution, voici quelques stratégies à envisager lors de la création de votre propre programme de sécurité IA. Ces suggestions sont conçues pour vous aider à vous conformer à nos Conditions d'utilisation et à notre Politique d'utilisation, qui interdisent certaines utilisations de Claude. Le non-respect des Conditions et de la Politique d'utilisation peut entraîner la suspension ou la résiliation de votre accès aux services.

Garanties de base

  • Stockez les identifiants liés à chaque appel API, afin que si vous devez identifier un contenu spécifique en infraction, vous ayez la possibilité de le retrouver dans vos systèmes.

  • Envisagez d'attribuer des identifiants aux utilisateurs, ce qui peut vous aider à suivre les individus spécifiques qui enfreignent la Politique d'utilisation acceptable d'Anthropic, permettant une action plus ciblée en cas d'utilisation abusive.

    • Le choix de transmettre des identifiants à Anthropic via l'API vous appartient. Mais, s'ils sont fournis, nous pouvons identifier plus précisément les violations. Pour aider à protéger la vie privée des utilisateurs finaux, tous les identifiants transmis doivent être hachés cryptographiquement.

  • Envisagez d'exiger que le client crée un compte sur votre plateforme avant d'utiliser Claude

  • Assurez-vous que vos clients comprennent les utilisations autorisées

  • Avertissez, limitez ou suspendez les utilisateurs qui enfreignent de manière répétée les Conditions d'utilisation et la Politique d'utilisation d'Anthropic

Garanties intermédiaires

  • Créez des cadres de personnalisation qui limitent les interactions des utilisateurs finaux avec Claude à un ensemble limité de prompts ou permettent à Claude de n'examiner qu'un corpus de connaissances spécifique que vous possédez déjà, ce qui réduira la capacité des utilisateurs à adopter un comportement en infraction.

  • Activez des filtres de sécurité supplémentaires - des outils de modération en temps réel gratuits créés par Anthropic pour aider à détecter les prompts potentiellement nuisibles et gérer les actions en temps réel pour réduire les dommages

    • Pour plus d'informations sur l'activation de nos filtres de sécurité supplémentaires, veuillez contacter usersafety@anthropic.com.

  • Pour les clients Bedrock :

    • Activez votre bucket S3 privé afin de stocker les prompts et les compléments pour votre propre évaluation

Garanties avancées

Garanties complètes

  • Mettez en place un système de révision humaine interne pour signaler les prompts qui sont marqués par Claude (utilisé pour la modération de contenu) ou par une API de modération comme étant nuisibles, afin que vous puissiez intervenir pour restreindre ou supprimer les utilisateurs ayant des taux élevés d'infractions.

Avez-vous trouvé la réponse à votre question ?