Fundamos a Anthropic para colocar a segurança na vanguarda da pesquisa e dos produtos de IA. Nossa pesquisa informa nossos produtos comerciais, e nossos modelos estão entre os mais confiáveis e resistentes ao abuso disponíveis atualmente. Embora nossa API ainda esteja em beta fechado, estamos trabalhando para melhorar nossos filtros de segurança com base no feedback dos usuários - e esperamos que nossos clientes comerciais nos responsabilizem quando nossos recursos de segurança estiverem falhando.
Mas acreditamos que a segurança é uma responsabilidade compartilhada. Nossos recursos não são à prova de falhas, e parceiros comprometidos são uma segunda linha de defesa. Dependendo do seu caso de uso, as etapas de moderação serão diferentes, mas aqui estão algumas recomendações adicionais de segurança:
Use o Claude como um filtro de moderação de conteúdo para identificar e prevenir violações.
Para produtos voltados ao público externo, informe aos seus usuários que eles estão interagindo com um sistema de IA.
Para informações sensíveis e tomada de decisões, tenha um profissional qualificado para revisar o conteúdo antes da disseminação aos consumidores.
Encorajamos você a nos enviar feedback ou propostas específicas para usersafety@anthropic.com. Para parceiros comerciais existentes, recomendamos que você se junte ao nosso servidor Discord e troque ideias com outros desenvolvedores também.