Fundamos a Anthropic para colocar a segurança na vanguarda da pesquisa em IA e produtos de IA. Nossa pesquisa informa nossos produtos comerciais, e nossos modelos estão entre os mais confiavelmente seguros e resistentes ao abuso disponíveis hoje. Embora nossa API ainda esteja em beta fechado, estamos trabalhando para melhorar nossos filtros de segurança com base no feedback dos usuários - e esperamos que nossos clientes comerciais nos responsabilizem quando nossos recursos de segurança estiverem falhando.
Mas acreditamos que a segurança é uma responsabilidade compartilhada. Nossos recursos não são à prova de falhas, e parceiros comprometidos são uma segunda linha de defesa. Dependendo do seu caso de uso, as etapas de moderação parecerão diferentes, mas aqui estão algumas recomendações adicionais de segurança:
Use Claude como um filtro de moderação de conteúdo para identificar e prevenir violações.
Para produtos voltados ao público externo, divulgue aos seus usuários que eles estão interagindo com um sistema de IA.
Para informações sensíveis e tomada de decisões, tenha um profissional qualificado revisando o conteúdo antes da disseminação aos consumidores.
Encorajamos você a nos enviar feedback ou propostas específicas para usersafety@anthropic.com. Para parceiros comerciais existentes, recomendaríamos ingressar em nosso servidor Discord e trocar ideias com outros desenvolvedores também.