A Anthropic mantém uma Política de Uso abrangente para garantir a implantação responsável de nossos sistemas de IA. A Anthropic pode celebrar contratos com clientes governamentais que adaptem as restrições de uso à missão pública e autoridades legais desse cliente se, no julgamento da Anthropic, as restrições de uso contratuais e as salvaguardas aplicáveis forem adequadas para mitigar os danos potenciais abordados por esta Política de Uso.
Por exemplo, com entidades governamentais cuidadosamente selecionadas, podemos permitir análises de inteligência estrangeira de acordo com a lei aplicável. Todas as outras restrições de uso em nossa Política de Uso, incluindo aquelas que proíbem o uso para campanhas de desinformação, o design ou uso de armas, censura, vigilância doméstica e operações cibernéticas maliciosas, permanecem.
Neste momento, esta política se aplica apenas a modelos que estão no Nível de Segurança de IA 2 (ASL-2) de acordo com nossa Política de Escalonamento Responsável (RSP).
Quais entidades governamentais são elegíveis para modificações na Política de Uso?
Nossa avaliação sobre se devemos adaptar as restrições de uso à missão e autoridades legais de uma entidade governamental visa equilibrar a habilitação de usos benéficos de nossos produtos e serviços com a mitigação de danos potenciais, e inclui:
Nossa avaliação da adequação dos modelos para os casos de uso propostos.
As autoridades legais da agência em questão.
A extensão da disposição da agência em se envolver em diálogo contínuo com a Anthropic.
As salvaguardas em vigor para prevenir o uso indevido e mitigar riscos de erros.
O grau de supervisão independente e democrática das organizações e seus usos de tecnologias de IA, incluindo restrições legislativas ou regulatórias e outros compromissos públicos relevantes.