Ir para conteúdo principal

O Claude está fornecendo respostas incorretas ou enganosas. O que está acontecendo?

Atualizado esta semana

Na tentativa de ser um assistente útil, Claude pode ocasionalmente produzir respostas que são incorretas ou enganosas.

Isso é conhecido como "alucinar" informações, e é um subproduto de algumas das limitações atuais dos modelos de IA Generativa de fronteira, como Claude. Por exemplo, em algumas áreas temáticas, Claude pode não ter sido treinado com as informações mais atualizadas e pode ficar confuso quando questionado sobre eventos atuais. Outro exemplo é que Claude pode exibir citações que podem parecer autoritárias ou soar convincentes, mas não são baseadas em fatos. Em outras palavras, Claude pode escrever coisas que podem parecer corretas, mas são muito equivocadas.

Os usuários não devem confiar em Claude como uma fonte única da verdade e devem examinar cuidadosamente qualquer conselho de alto risco dado por Claude.

Ao trabalhar com resultados de pesquisa na web, os usuários devem revisar as fontes citadas por Claude. Os sites originais podem conter contexto importante ou detalhes não incluídos na síntese de Claude. Além disso, a qualidade das respostas de Claude depende das fontes subjacentes que ele referencia, então verificar o conteúdo original ajuda você a identificar qualquer informação que possa ser mal interpretada sem o contexto completo.

Você pode usar o botão de polegar para baixo para nos informar se uma resposta específica foi inútil, ou escrever para nós em feedback@anthropic.com com seus pensamentos ou sugestões.

Para saber mais sobre como a tecnologia da Anthropic funciona e nossa pesquisa sobre o desenvolvimento de modelos mais seguros, controláveis e confiáveis, recomendamos visitar: https://www.anthropic.com/research

Isto respondeu à sua pergunta?