메인 콘텐츠로 건너뛰기

사용 정책에 대한 예외

최소 한 달 전에 업데이트됨

Anthropic은 AI 시스템의 책임 있는 배치를 보장하기 위해 포괄적인 사용 정책을 유지합니다. Anthropic은 계약상의 사용 제한과 적용 가능한 안전장치가 이 사용 정책에서 다루는 잠재적 위험을 완화하기에 충분하다고 판단될 경우, 해당 고객의 공공 임무와 법적 권한에 맞춰 사용 제한을 조정하는 정부 고객과의 계약을 체결할 수 있습니다.

예를 들어, 신중하게 선별된 정부 기관의 경우, 우리는 적용 가능한 법률에 따라 외국 정보 분석을 허용할 수 있습니다. 허위 정보 캠페인, 무기의 설계 또는 사용, 검열, 국내 감시, 악의적인 사이버 작전 등을 금지하는 사용 정책의 다른 모든 제한 사항은 그대로 유지됩니다.

현재 이 정책은 우리의 책임 있는 확장 정책(RSP)에 따라 AI 안전 수준 2(ASL-2)에 해당하는 모델에만 적용됩니다.

어떤 정부 기관이 사용 정책 수정 대상이 될 수 있나요?

정부 기관의 임무와 법적 권한에 맞춰 사용 제한을 조정할지 여부에 대한 우리의 평가는 제품과 서비스의 유익한 사용을 가능하게 하는 것과 잠재적 위험을 완화하는 것 사이의 균형을 맞추는 것을 목표로 하며, 다음을 포함합니다:

  • 제안된 사용 사례에 대한 모델의 적합성에 대한 우리의 평가.

  • 해당 기관의 법적 권한.

  • Anthropic과 지속적인 대화에 참여하려는 기관의 의지 정도.

  • 오용을 방지하고 실수의 위험을 완화하기 위해 마련된 안전장치.

  • 입법 또는 규제 제약, 기타 관련 공개 약속을 포함한 조직과 AI 기술 사용에 대한 독립적이고 민주적인 감독의 정도.

답변이 도움되었나요?