Vai al contenuto principale

Sto pianificando di lanciare un prodotto utilizzando Claude. Quali passi dovrei seguire per assicurarmi di non violare la Politica d'Uso di Anthropic?

Aggiornato oltre 2 settimane fa

Abbiamo fondato Anthropic per mettere la sicurezza in prima linea nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Mentre la nostra API è ancora in beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza basandoci sui feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzionalità di sicurezza non funzionano.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e i partner impegnati sono una seconda linea di difesa. A seconda del vostro caso d'uso, i passaggi di moderazione saranno diversi, ma ecco alcune raccomandazioni aggiuntive per la sicurezza:

  • Utilizzate Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti all'esterno, comunicate ai vostri utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e decisioni importanti, fate rivedere il contenuto da un professionista qualificato prima della diffusione ai consumatori.

Vi incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, raccomandiamo di unirsi al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?