A Anthropic mantém uma Política de Uso abrangente para garantir a implantação responsável de nossos sistemas de IA. A Anthropic pode celebrar contratos com clientes governamentais que adaptem as restrições de uso à missão pública e às autoridades legais desse cliente se, no julgamento da Anthropic, as restrições de uso contratuais e as salvaguardas aplicáveis forem adequadas para mitigar os danos potenciais abordados por esta Política de Uso.
Por exemplo, com entidades governamentais cuidadosamente selecionadas, podemos permitir a análise de inteligência estrangeira de acordo com a lei aplicável. Todas as outras restrições de uso em nossa Política de Uso, incluindo aquelas que proíbem o uso para campanhas de desinformação, o design ou uso de armas, censura, vigilância doméstica e operações cibernéticas maliciosas, permanecem.
Neste momento, esta política se aplica apenas a modelos que estão no Nível de Segurança de IA 2 (ASL-2) de acordo com nossa Política de Escalonamento Responsável (RSP).
Quais entidades governamentais são elegíveis para modificações na Política de Uso?
Nossa avaliação sobre se devemos adaptar as restrições de uso à missão e às autoridades legais de uma entidade governamental visa equilibrar a habilitação de usos benéficos de nossos produtos e serviços com a mitigação de danos potenciais, e inclui:
Nossa avaliação da adequação dos modelos para os casos de uso propostos.
As autoridades legais da agência em questão.
A extensão da disposição da agência em se envolver em diálogo contínuo com a Anthropic.
As salvaguardas em vigor para prevenir o uso indevido e mitigar os riscos de erros.
O grau de supervisão independente e democrática das organizações e seus usos de tecnologias de IA, incluindo restrições legislativas ou regulatórias e outros compromissos públicos relevantes.