우리는 AI 연구와 AI 제품의 최전선에서 안전성을 우선시하기 위해 Anthropic을 설립했습니다. 우리의 연구는 상용 제품에 반영되며, 우리의 모델은 현재 이용 가능한 것 중 가장 안정적으로 안전하고 남용에 저항력이 있는 모델 중 하나입니다. 우리의 API는 아직 비공개 베타 단계에 있지만, 사용자 피드백을 바탕으로 안전 필터를 개선하고 있으며, 우리의 안전 기능이 실패할 때 상용 고객들이 우리에게 책임을 물을 것으로 기대합니다.
하지만 우리는 안전성이 공동 책임이라고 믿습니다. 우리의 기능은 완벽하지 않으며, 헌신적인 파트너들이 두 번째 방어선입니다. 사용 사례에 따라 조정 단계는 다르게 보일 것이지만, 다음은 몇 가지 추가적인 안전 권장사항입니다:
위반 사항을 식별하고 방지하기 위해 Claude를 콘텐츠 조정 필터로 사용하세요.
외부 대면 제품의 경우, 사용자들이 AI 시스템과 상호작용하고 있다는 것을 공개하세요.
민감한 정보와 의사결정의 경우, 소비자에게 배포하기 전에 자격을 갖춘 전문가가 콘텐츠를 검토하도록 하세요.
피드백이나 구체적인 제안을 usersafety@anthropic.com으로 보내주시기 바랍니다. 기존 상용 파트너의 경우, 우리의 Discord 서버에 참여하여 동료 개발자들과 아이디어를 교환하는 것을 권장합니다.