Ir para conteúdo principal

Estou planejando lançar um produto usando Claude. Que passos devo tomar para garantir que não estou violando a Política de Uso da Anthropic?

Atualizado há mais de 3 semanas

Fundamos a Anthropic para colocar a segurança na vanguarda da pesquisa em IA e produtos de IA. Nossa pesquisa informa nossos produtos comerciais, e nossos modelos estão entre os mais confiavelmente seguros e resistentes ao abuso disponíveis hoje. Embora nossa API ainda esteja em beta fechado, estamos trabalhando para melhorar nossos filtros de segurança com base no feedback dos usuários - e esperamos que nossos clientes comerciais nos responsabilizem quando nossos recursos de segurança estiverem falhando.

Mas acreditamos que a segurança é uma responsabilidade compartilhada. Nossos recursos não são à prova de falhas, e parceiros comprometidos são uma segunda linha de defesa. Dependendo do seu caso de uso, as etapas de moderação parecerão diferentes, mas aqui estão algumas recomendações adicionais de segurança:

  • Use Claude como um filtro de moderação de conteúdo para identificar e prevenir violações.

  • Para produtos voltados ao público externo, divulgue aos seus usuários que eles estão interagindo com um sistema de IA.

  • Para informações sensíveis e tomada de decisões, tenha um profissional qualificado revisando o conteúdo antes da disseminação aos consumidores.

Encorajamos você a nos enviar feedback ou propostas específicas para usersafety@anthropic.com. Para parceiros comerciais existentes, recomendaríamos ingressar em nosso servidor Discord e trocar ideias com outros desenvolvedores também.

Isto respondeu à sua pergunta?