Na tentativa de ser um assistente útil, Claude pode ocasionalmente produzir respostas que são incorretas ou enganosas.
Isso é conhecido como "alucinar" informações, e é um subproduto de algumas das limitações atuais dos modelos de Inteligência Artificial generativa de ponta, como Claude. Por exemplo, em algumas áreas de assunto, Claude pode não ter sido treinado com as informações mais atualizadas e pode ficar confuso quando questionado sobre eventos atuais. Outro exemplo é que Claude pode exibir citações que podem parecer autoritativas ou soar convincentes, mas não são fundamentadas em fatos. Em outras palavras, Claude pode escrever coisas que podem parecer corretas, mas são muito equivocadas.
Os usuários não devem confiar em Claude como uma fonte única de verdade e devem examinar cuidadosamente qualquer conselho de alto risco dado por Claude.
Você pode usar o botão de polegar para baixo para nos informar se uma resposta específica não foi útil, ou escrever para nós em feedback@anthropic.com com seus pensamentos ou sugestões.
Para saber mais sobre como a tecnologia da Anthropic funciona e nossa pesquisa sobre o desenvolvimento de modelos mais seguros, direcionáveis e confiáveis, recomendamos visitar: https://www.anthropic.com/research