Ir al contenido principal

Estoy planeando lanzar un producto usando Claude. ¿Qué pasos debo tomar para asegurarme de que no estoy violando la Política de Uso de Anthropic?

Actualizado hace más de 2 semanas

Fundamos Anthropic para poner la seguridad en la vanguardia de la investigación de IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Aunque nuestra API aún está en beta cerrada, estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad estén fallando.

Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:

  • Use Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.

  • Para productos de cara al público, revele a sus usuarios que están interactuando con un sistema de IA.

  • Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de la difusión a los consumidores.

Le animamos a enviarnos comentarios o propuestas específicas a usersafety@anthropic.com. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.

¿Ha quedado contestada tu pregunta?