Tutte le collezioni
Claude API
Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passaggi dovrei fare per assicurarmi di non violare le politiche di utilizzo accettabili di Anthropic?
Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passaggi dovrei fare per assicurarmi di non violare le politiche di utilizzo accettabili di Anthropic?
Aggiornato oltre una settimana fa

Abbiamo fondato Anthropic per mettere la sicurezza all'avanguardia della ricerca sull'IA e dei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali e i nostri modelli sono tra i più affidabilmente sicuri e resistenti all'abuso disponibili oggi. Mentre la nostra API è ancora in una beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza sulla base del feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci terranno responsabili quando le nostre funzionalità di sicurezza non funzionano.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili e i partner impegnati sono una seconda linea di difesa. A seconda del tuo caso d'uso, i passaggi di moderazione saranno diversi, ma ecco alcune raccomandazioni di sicurezza aggiuntive:

  • Utilizza Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti all'esterno, comunica ai tuoi utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e decisioni importanti, fai controllare i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Ti incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, consigliamo di unirti al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?