Fundamos Anthropic para poner la seguridad en la vanguardia de la investigación de IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Aunque nuestra API aún está en beta cerrada, estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad estén fallando.
Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:
Use Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.
Para productos de cara al exterior, revele a sus usuarios que están interactuando con un sistema de IA.
Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de la diseminación a los consumidores.
Le animamos a enviarnos comentarios o propuestas específicas a usersafety@anthropic.com. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.