Lewati ke konten utama
Semua KoleksiClaude.ai
Claude memberikan tanggapan yang salah atau menyesatkan. Apa yang terjadi?
Claude memberikan tanggapan yang salah atau menyesatkan. Apa yang terjadi?
Diperbarui lebih dari satu minggu yang lalu

Dalam upaya menjadi asisten yang membantu, Claude kadang-kadang dapat menghasilkan tanggapan yang salah atau menyesatkan.

Ini dikenal sebagai "halusinasi" informasi, dan ini merupakan efek samping dari beberapa keterbatasan model AI Generatif saat ini, seperti Claude. Misalnya, dalam beberapa bidang subjek, Claude mungkin tidak dilatih dengan informasi terbaru dan dapat bingung ketika diminta tentang peristiwa terkini. Contoh lain adalah bahwa Claude dapat menampilkan kutipan yang mungkin terlihat otoritatif atau terdengar meyakinkan, tetapi tidak didasarkan pada fakta. Dengan kata lain, Claude dapat menulis hal-hal yang mungkin terlihat benar tetapi sangat keliru.

Pengguna tidak boleh mengandalkan Claude sebagai satu-satunya sumber kebenaran dan harus meneliti dengan cermat saran penting apa pun yang diberikan oleh Claude.

Anda dapat menggunakan tombol jempol ke bawah untuk memberi tahu kami jika tanggapan tertentu tidak membantu, atau menulis ke kami di feedback@anthropic.com dengan pemikiran atau saran Anda.

Untuk mempelajari lebih lanjut tentang cara kerja teknologi Anthropic dan penelitian kami tentang pengembangan model yang lebih aman, dapat dikemudikan, dan lebih andal, kami merekomendasikan mengunjungi: https://www.anthropic.com/research

Apakah pertanyaan Anda terjawab?