Ir al contenido principal

Estoy planeando lanzar un producto usando Claude. ¿Qué pasos debo tomar para asegurarme de que no estoy violando la Política de Uso de Anthropic?

Actualizado esta semana

Fundamos Anthropic para poner la seguridad en la vanguardia de la investigación de IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Aunque nuestra API aún está en beta cerrada, estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad estén fallando.

Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:

  • Use Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.

  • Para productos de cara al exterior, revele a sus usuarios que están interactuando con un sistema de IA.

  • Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de la diseminación a los consumidores.

Le animamos a enviarnos comentarios o propuestas específicas a usersafety@anthropic.com. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.

¿Ha quedado contestada tu pregunta?