Toutes les collections
Claude API
Je prévois de lancer un produit en utilisant Claude. Quelles mesures devrais-je prendre pour m'assurer que je ne viole pas la politique d'utilisation acceptable d'Anthropic ?
Je prévois de lancer un produit en utilisant Claude. Quelles mesures devrais-je prendre pour m'assurer que je ne viole pas la politique d'utilisation acceptable d'Anthropic ?
Mis à jour il y a plus d’une semaine

Nous avons fondé Anthropic pour mettre la sécurité à la frontière de la recherche en IA et des produits d'IA. Nos recherches informent nos produits commerciaux, et nos modèles sont parmi les plus sûrs et résistants aux abus disponibles aujourd'hui. Bien que notre API soit encore en version bêta fermée, nous travaillons à améliorer nos filtres de sécurité en fonction des commentaires des utilisateurs - et nous nous attendons à ce que nos clients commerciaux nous tiennent responsables lorsque nos fonctionnalités de sécurité échouent.

Mais nous croyons que la sécurité est une responsabilité partagée. Nos fonctionnalités ne sont pas infaillibles, et des partenaires engagés constituent une deuxième ligne de défense. Selon votre cas d'utilisation, les étapes de modération seront différentes, mais voici quelques recommandations de sécurité supplémentaires :

  • Utilisez Claude comme filtre de modération de contenu pour identifier et prévenir les violations.

  • Pour les produits destinés au public, indiquez à vos utilisateurs qu'ils interagissent avec un système d'IA.

  • Pour les informations sensibles et la prise de décision, faites examiner le contenu par un professionnel qualifié avant de le diffuser aux consommateurs.

Nous vous encourageons à nous faire part de vos commentaires ou de propositions spécifiques à usersafety@anthropic.com. Pour les partenaires commerciaux existants, nous vous recommandons de rejoindre notre serveur Discord et d'échanger des idées avec d'autres développeurs.

Avez-vous trouvé la réponse à votre question ?