우리는 AI 연구와 AI 제품의 최전선에 안전을 두기 위해 Anthropic을 설립했습니다. 우리의 연구는 상업적 제품에 반영되며, 우리의 모델들은 오늘날 가장 안정적으로 안전하고 남용에 저항력이 있는 모델 중 일부입니다. 우리의 API가 아직 비공개 베타 단계에 있지만, 우리는 사용자 피드백을 바탕으로 안전 필터를 개선하기 위해 노력하고 있습니다 - 그리고 우리의 상업적 고객들이 우리의 안전 기능이 실패할 때 우리에게 책임을 물을 것이라고 예상합니다.
하지만 우리는 안전이 공동의 책임이라고 믿습니다. 우리의 기능들은 완벽하지 않으며, 헌신적인 파트너들이 두 번째 방어선입니다. 사용 사례에 따라 중재 단계는 다르게 보일 수 있지만, 다음은 몇 가지 추가적인 안전 권장 사항입니다:
Claude를 콘텐츠 중재 필터로 사용하여 위반 사항을 식별하고 방지하세요.
외부 대면 제품의 경우, 사용자들에게 AI 시스템과 상호작용하고 있다는 것을 공개하세요.
민감한 정보와 의사 결정의 경우, 소비자에게 배포하기 전에 자격을 갖춘 전문가가 내용을 검토하도록 하세요.
우리는 여러분이 usersafety@anthropic.com으로 피드백이나 구체적인 제안을 보내주시기를 권장합니다. 기존 상업 파트너의 경우, 우리의 Discord 서버에 가입하여 다른 개발자들과 아이디어를 교환하는 것을 추천합니다.