Abbiamo fondato Anthropic per mettere la sicurezza all'avanguardia della ricerca sull'IA e dei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali e i nostri modelli sono tra i più affidabilmente sicuri e resistenti all'abuso disponibili oggi. Mentre la nostra API è ancora in una beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza sulla base del feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci terranno responsabili quando le nostre funzionalità di sicurezza non funzionano.
Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili e i partner impegnati sono una seconda linea di difesa. A seconda del tuo caso d'uso, i passaggi di moderazione saranno diversi, ma ecco alcune raccomandazioni di sicurezza aggiuntive:
Utilizza Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.
Per i prodotti rivolti all'esterno, comunica ai tuoi utenti che stanno interagendo con un sistema di IA.
Per informazioni sensibili e decisioni importanti, fai controllare i contenuti da un professionista qualificato prima della diffusione ai consumatori.
Ti incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, consigliamo di unirti al nostro server Discord e scambiare idee con altri sviluppatori.