Fundamos Anthropic para poner la seguridad en la vanguardia de la investigación y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Aunque nuestra API aún está en una beta cerrada, estamos trabajando para mejorar nuestros filtros de seguridad basados en los comentarios de los usuarios - y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad fallen.
Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:
Use Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.
Para productos de cara al exterior, informe a sus usuarios que están interactuando con un sistema de IA.
Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de su difusión a los consumidores.
Le animamos a enviarnos comentarios o propuestas específicas a usersafety@anthropic.com. Para los socios comerciales existentes, recomendamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.