도움이 되는 어시스턴트가 되고자 하는 노력의 일환으로, Claude는 때때로 부정확하거나 오해의 소지가 있는 응답을 할 수 있습니다.
이는 정보를 "환각"하는 것으로 알려져 있으며, Claude와 같은 최첨단 생성형 AI 모델의 현재 한계로 인한 부산물입니다. 예를 들어, 일부 주제 영역에서 Claude는 가장 최신 정보로 훈련되지 않았을 수 있으며 현재 사건에 대해 질문받았을 때 혼란스러워할 수 있습니다. 또 다른 예로, Claude는 권위 있어 보이거나 설득력 있게 들리는 인용문을 표시할 수 있지만, 이는 사실에 근거하지 않을 수 있습니다. 다시 말해, Claude는 정확해 보이지만 매우 잘못된 내용을 작성할 수 있습니다.
사용자는 Claude를 유일한 진실의 원천으로 여기지 말아야 하며, Claude가 제공하는 중요한 조언은 신중하게 검토해야 합니다.
특정 응답이 도움이 되지 않았다면 아래 엄지손가락 아래 버튼을 사용하여 알려주시거나, feedback@anthropic.com으로 의견이나 제안을 보내주시기 바랍니다.
Anthropic의 기술이 어떻게 작동하는지, 그리고 더 안전하고 조종 가능하며 신뢰할 수 있는 모델을 개발하기 위한 연구에 대해 자세히 알아보려면 다음 웹사이트를 방문하는 것이 좋습니다: https://www.anthropic.com/research