Abbiamo fondato Anthropic per mettere la sicurezza in primo piano nella ricerca e nei prodotti di intelligenza artificiale. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabili e resistenti agli abusi disponibili oggi. Mentre la nostra API è ancora in fase di beta chiusa, stiamo lavorando per migliorare i nostri filtri di sicurezza basandoci sul feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzioni di sicurezza falliscono.
Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e partner impegnati rappresentano una seconda linea di difesa. A seconda del vostro caso d'uso, le misure di moderazione saranno diverse, ma ecco alcune raccomandazioni di sicurezza aggiuntive:
Utilizzate Claude come filtro di moderazione dei contenuti per identificare e prevenire violazioni.
Per i prodotti rivolti all'esterno, informate i vostri utenti che stanno interagendo con un sistema di intelligenza artificiale.
Per informazioni sensibili e processi decisionali, fate revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.
Vi incoraggiamo a inviarci feedback o proposte specifiche a usersafety@anthropic.com. Per i partner commerciali esistenti, consigliamo di unirsi al nostro server Discord e scambiare idee con altri sviluppatori.