Vai al contenuto principale
Tutte le collezioniClaude API
Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passi dovrei intraprendere per assicurarmi di non violare la Politica d'Uso di Anthropic?
Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passi dovrei intraprendere per assicurarmi di non violare la Politica d'Uso di Anthropic?
Aggiornato oltre una settimana fa

Abbiamo fondato Anthropic per mettere la sicurezza in primo piano nella ricerca e nei prodotti di intelligenza artificiale. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabili e resistenti agli abusi disponibili oggi. Mentre la nostra API è ancora in fase di beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza basandoci sul feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzioni di sicurezza falliscono.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e partner impegnati rappresentano una seconda linea di difesa. A seconda del vostro caso d'uso, le misure di moderazione saranno diverse, ma ecco alcune raccomandazioni di sicurezza aggiuntive:

  • Utilizzate Claude come filtro di moderazione dei contenuti per identificare e prevenire violazioni.

  • Per i prodotti rivolti all'esterno, informate i vostri utenti che stanno interagendo con un sistema di intelligenza artificiale.

  • Per informazioni sensibili e processi decisionali, fate revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Vi incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, consigliamo di unirsi al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?