Anthropic mantiene una Política de Uso integral para garantizar el despliegue responsable de nuestros sistemas de IA. Anthropic puede celebrar contratos con clientes gubernamentales que adapten las restricciones de uso a la misión pública y las autoridades legales de ese cliente si, en el juicio de Anthropic, las restricciones de uso contractuales y las salvaguardas aplicables son adecuadas para mitigar los daños potenciales abordados por esta Política de Uso.
Por ejemplo, con entidades gubernamentales cuidadosamente seleccionadas, podemos permitir el análisis de inteligencia extranjera de acuerdo con la ley aplicable. Todas las demás restricciones de uso en nuestra Política de Uso, incluyendo aquellas que prohíben el uso para campañas de desinformación, el diseño o uso de armas, censura, vigilancia doméstica y operaciones cibernéticas maliciosas, permanecen.
En este momento, esta política solo se aplica a modelos que están en el Nivel de Seguridad de IA 2 (ASL-2) bajo nuestra Política de Escalamiento Responsable (RSP).
¿Qué entidades gubernamentales son elegibles para modificaciones de la Política de Uso?
Nuestra evaluación de si adaptar las restricciones de uso a la misión y autoridades legales de una entidad gubernamental tiene como objetivo equilibrar la habilitación de usos beneficiosos de nuestros productos y servicios con la mitigación de daños potenciales, e incluye:
Nuestra evaluación de la idoneidad de los modelos para los casos de uso propuestos.
Las autoridades legales de la agencia en cuestión.
El grado de disposición de la agencia para participar en un diálogo continuo con Anthropic.
Las salvaguardas implementadas para prevenir el mal uso y mitigar los riesgos de errores.
El grado de supervisión independiente y democrática de las organizaciones y sus usos de tecnologías de IA, incluyendo restricciones legislativas o regulatorias y otros compromisos públicos relevantes.