Ir al contenido principal

Estoy planeando lanzar un producto usando Claude. ¿Qué pasos debo tomar para asegurarme de que no estoy violando la Política de Uso de Anthropic?

Actualizado hoy

Fundamos Anthropic para poner la seguridad en la vanguardia de la investigación de IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Aunque nuestra API aún está en beta cerrada, estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad estén fallando.

Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de tu caso de uso, los pasos de moderación se verán diferentes, pero aquí tienes algunas recomendaciones adicionales de seguridad:

  • Usa Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.

  • Para productos de cara al público, revela a tus usuarios que están interactuando with un sistema de IA.

  • Para información sensible y toma de decisiones, haz que un profesional calificado revise el contenido antes de la difusión a los consumidores.

Te animamos a enviarnos comentarios o propuestas específicas a usersafety@anthropic.com. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.

¿Ha quedado contestada tu pregunta?