Todas las colecciones
Claude.ai
Claude está proporcionando respuestas incorrectas o engañosas. ¿Qué está pasando?
Claude está proporcionando respuestas incorrectas o engañosas. ¿Qué está pasando?
Actualizado hace más de una semana

En un intento por ser un asistente útil, Claude puede ocasionalmente producir respuestas que son incorrectas o engañosas.

Esto se conoce como "alucinar" información, y es un subproducto de algunas de las limitaciones actuales de los modelos de IA generativa de vanguardia, como Claude. Por ejemplo, en algunas áreas temáticas, Claude podría no haber sido entrenado con la información más actualizada y podría confundirse cuando se le pregunta sobre eventos actuales. Otro ejemplo es que Claude puede mostrar citas que pueden parecer autoritativas o sonar convincentes, pero no están basadas en hechos. En otras palabras, Claude puede escribir cosas que podrían parecer correctas pero están muy equivocadas.

Los usuarios no deben confiar en Claude como una fuente única de verdad y deben examinar cuidadosamente cualquier consejo de alto riesgo dado por Claude.

Puede usar el botón de pulgar hacia abajo para hacernos saber si una respuesta en particular no fue útil, o escribirnos a feedback@anthropic.com con sus pensamientos o sugerencias.

Para obtener más información sobre cómo funciona la tecnología de Anthropic y nuestra investigación sobre el desarrollo de modelos más seguros, controlables y confiables, recomendamos visitar: https://www.anthropic.com/research

¿Ha quedado contestada tu pregunta?