Na tentativa de ser um assistente útil, Claude pode ocasionalmente produzir respostas que são incorretas ou enganosas.
Isso é conhecido como "alucinar" informações, e é um subproduto de algumas das limitações atuais dos modelos de IA Generativa de fronteira, como o Claude. Por exemplo, em algumas áreas de assunto, Claude pode não ter sido treinado com as informações mais atualizadas e pode ficar confuso quando questionado sobre eventos atuais. Outro exemplo é que Claude pode exibir citações que podem parecer autoritativas ou soar convincentes, mas não são fundamentadas em fatos. Em outras palavras, Claude pode escrever coisas que podem parecer corretas, mas são muito equivocadas.
Os usuários não devem confiar no Claude como uma fonte única de verdade e devem examinar cuidadosamente qualquer conselho de alto risco dado pelo Claude.
Ao trabalhar com resultados de pesquisa na web, os usuários devem revisar as fontes citadas por Claude. Os sites originais podem conter contexto importante ou detalhes não incluídos na síntese de Claude. Além disso, a qualidade das respostas de Claude depende das fontes subjacentes que ele referencia, então verificar o conteúdo original ajuda você a identificar qualquer informação que possa ser mal interpretada sem o contexto completo.
Você pode usar o botão de polegar para baixo para nos informar se uma resposta específica não foi útil, ou escrever para nós em feedback@anthropic.com com seus pensamentos ou sugestões.
Para saber mais sobre como a tecnologia da Anthropic funciona e nossa pesquisa sobre o desenvolvimento de modelos mais seguros, direcionáveis e confiáveis, recomendamos visitar: https://www.anthropic.com/research