Zum Hauptinhalt springen
Alle KollektionenVertrauen & Sicherheit
Ausnahmen zu unserer Nutzungsrichtlinie
Ausnahmen zu unserer Nutzungsrichtlinie
Vor über 2 Wochen aktualisiert

Anthropic unterhält eine umfassende Nutzungsrichtlinie, um den verantwortungsvollen Einsatz unserer KI-Systeme sicherzustellen. Anthropic kann Verträge mit Regierungskunden abschließen, die die Nutzungsbeschränkungen an die öffentliche Mission und rechtlichen Befugnisse des Kunden anpassen, wenn nach Anthropics Einschätzung die vertraglichen Nutzungsbeschränkungen und anwendbaren Schutzmaßnahmen ausreichen, um die potenziellen Schäden, die durch diese Nutzungsrichtlinie adressiert werden, zu mindern.

Zum Beispiel können wir bei sorgfältig ausgewählten Regierungsstellen die Analyse ausländischer Nachrichtendienste in Übereinstimmung mit geltendem Recht erlauben. Alle anderen Nutzungsbeschränkungen in unserer Nutzungsrichtlinie, einschließlich derjenigen, die die Nutzung für Desinformationskampagnen, die Entwicklung oder den Einsatz von Waffen, Zensur, inländische Überwachung und böswillige Cyberoperationen verbieten, bleiben bestehen.

Derzeit gilt diese Richtlinie nur für Modelle, die gemäß unserer Richtlinie für verantwortungsvolles Skalieren (Responsible Scaling Policy, RSP) die KI-Sicherheitsstufe 2 (ASL-2) erreicht haben.

Welche Regierungsstellen kommen für Änderungen der Nutzungsrichtlinie in Frage?

Unsere Bewertung, ob die Nutzungsbeschränkungen an die Mission und rechtlichen Befugnisse einer Regierungsstelle angepasst werden sollen, zielt darauf ab, die Ermöglichung nützlicher Anwendungen unserer Produkte und Dienstleistungen mit der Minderung potenzieller Schäden in Einklang zu bringen und umfasst:

  • Unsere Einschätzung der Eignung der Modelle für die vorgeschlagenen Anwendungsfälle.

  • Die rechtlichen Befugnisse der betreffenden Behörde.

  • Das Ausmaß der Bereitschaft der Behörde, sich auf einen fortlaufenden Dialog mit Anthropic einzulassen.

  • Die vorhandenen Schutzmaßnahmen zur Verhinderung von Missbrauch und zur Minderung der Risiken von Fehlern.

  • Der Grad der unabhängigen und demokratischen Aufsicht über die Organisationen und deren Nutzung von KI-Technologien, einschließlich gesetzlicher oder regulatorischer Einschränkungen und anderer relevanter öffentlicher Verpflichtungen.

Hat dies deine Frage beantwortet?