Anthropic은 AI 시스템의 책임 있는 배치를 보장하기 위해 포괄적인 사용 정책을 유지합니다. Anthropic은 계약상의 사용 제한과 적용 가능한 안전장치가 이 사용 정책에서 다루는 잠재적 위험을 완화하기에 충분하다고 판단될 경우, 해당 고객의 공공 임무와 법적 권한에 맞춰 사용 제한을 조정하는 정부 고객과의 계약을 체결할 수 있습니다.
예를 들어, 신중하게 선별된 정부 기관의 경우, 우리는 적용 가능한 법률에 따라 외국 정보 분석을 허용할 수 있습니다. 허위 정보 캠페인, 무기의 설계 또는 사용, 검열, 국내 감시, 악의적인 사이버 작전 등을 금지하는 사용 정책의 다른 모든 제한 사항은 그대로 유지됩니다.
현재 이 정책은 책임 있는 확장 정책(RSP)에 따라 AI 안전 수준 2(ASL-2)에 해당하는 모델에만 적용됩니다.
어떤 정부 기관이 사용 정책 수정 대상이 될 수 있나요?
정부 기관의 임무와 법적 권한에 맞춰 사용 제한을 조정할지 여부에 대한 우리의 평가는 제품과 서비스의 유익한 사용을 가능하게 하는 것과 잠재적 위험을 완화하는 것 사이의 균형을 맞추는 것을 목표로 하며, 다음을 포함합니다:
제안된 사용 사례에 대한 모델의 적합성에 대한 우리의 평가.
해당 기관의 법적 권한.
Anthropic과 지속적인 대화에 참여하려는 기관의 의지 정도.
오용을 방지하고 실수의 위험을 완화하기 위한 안전장치.
입법 또는 규제 제약, 기타 관련 공개 약속을 포함한 조직과 AI 기술 사용에 대한 독립적이고 민주적인 감독의 정도.