Vai al contenuto principale

Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passi dovrei seguire per assicurarmi di non violare la Politica d'Uso di Anthropic?

Aggiornato questa settimana

Abbiamo fondato Anthropic per mettere la sicurezza in prima linea nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Mentre la nostra API è ancora in beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza basandoci sui feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzionalità di sicurezza non funzionano.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e i partner impegnati rappresentano una seconda linea di difesa. A seconda del vostro caso d'uso, i passaggi di moderazione saranno diversi, ma ecco alcune raccomandazioni aggiuntive per la sicurezza:

  • Utilizzate Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti all'esterno, comunicate ai vostri utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e processi decisionali, fate rivedere i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Vi incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, raccomandiamo di unirsi al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?