Anthropic mantiene una Política de Uso integral para garantizar el despliegue responsable de nuestros sistemas de IA. Anthropic puede celebrar contratos con clientes gubernamentales que adapten las restricciones de uso a la misión pública y las autoridades legales de ese cliente si, a juicio de Anthropic, las restricciones de uso contractuales y las salvaguardias aplicables son adecuadas para mitigar los daños potenciales abordados por esta Política de Uso.
Por ejemplo, con entidades gubernamentales cuidadosamente seleccionadas, podemos permitir el análisis de inteligencia extranjera de acuerdo con la ley aplicable. Todas las demás restricciones de uso en nuestra Política de Uso, incluidas las que prohíben el uso para campañas de desinformación, el diseño o uso de armas, la censura, la vigilancia doméstica y las operaciones cibernéticas maliciosas, permanecen vigentes.
En este momento, esta política solo se aplica a los modelos que están en el Nivel de Seguridad de IA 2 (ASL-2) según nuestra Política de Escalado Responsable (RSP).
¿Qué entidades gubernamentales son elegibles para modificaciones de la Política de Uso?
Nuestra evaluación sobre si adaptar las restricciones de uso a la misión y las autoridades legales de una entidad gubernamental tiene como objetivo equilibrar la habilitación de usos beneficiosos de nuestros productos y servicios con la mitigación de daños potenciales, e incluye:
Nuestra evaluación de la idoneidad de los modelos para los casos de uso propuestos.
Las autoridades legales de la agencia en cuestión.
El grado de disposición de la agencia para participar en un diálogo continuo con Anthropic.
Las salvaguardias establecidas para prevenir el mal uso y mitigar los riesgos de errores.
El grado de supervisión independiente y democrática de las organizaciones y sus usos de tecnologías de IA, incluidas las restricciones legislativas o regulatorias y otros compromisos públicos relevantes.