Anthropic unterhält eine umfassende Nutzungsrichtlinie, um den verantwortlichen Einsatz unserer KI-Systeme zu gewährleisten. Anthropic kann Verträge mit Regierungskunden eingehen, die Nutzungsbeschränkungen an den öffentlichen Auftrag und die rechtlichen Befugnisse dieses Kunden anpassen, wenn nach Anthropics Einschätzung die vertraglichen Nutzungsbeschränkungen und anwendbaren Schutzmaßnahmen ausreichend sind, um die potenziellen Schäden zu mindern, die in dieser Nutzungsrichtlinie behandelt werden.
Zum Beispiel können wir bei sorgfältig ausgewählten Regierungsstellen die Analyse ausländischer Geheimdienste in Übereinstimmung mit geltendem Recht erlauben. Alle anderen Nutzungsbeschränkungen in unserer Nutzungsrichtlinie, einschließlich derjenigen, die die Nutzung für Desinformationskampagnen, die Entwicklung oder den Einsatz von Waffen, Zensur, inländische Überwachung und bösartige Cyber-Operationen verbieten, bleiben bestehen.
Derzeit gilt diese Richtlinie nur für Modelle, die sich auf AI Safety Level 2 (ASL-2) unter unserer Responsible Scaling Policy (RSP) befinden.
Welche Regierungsstellen sind für Änderungen der Nutzungsrichtlinie berechtigt?
Unsere Bewertung, ob Nutzungsbeschränkungen an den Auftrag und die rechtlichen Befugnisse einer Regierungsstelle angepasst werden sollen, zielt darauf ab, vorteilhafte Nutzungen unserer Produkte und Dienstleistungen zu ermöglichen und gleichzeitig potenzielle Schäden zu mindern, und umfasst:
Unsere Bewertung der Eignung der Modelle für die vorgeschlagenen Anwendungsfälle.
Die rechtlichen Befugnisse der betreffenden Behörde.
Das Ausmaß der Bereitschaft der Behörde, sich auf einen fortlaufenden Dialog mit Anthropic einzulassen.
Die vorhandenen Schutzmaßnahmen zur Verhinderung von Missbrauch und zur Minderung von Fehlerrisiken.
Der Grad der unabhängigen und demokratischen Aufsicht über die Organisationen und ihre Nutzung von KI-Technologien, einschließlich gesetzlicher oder regulatorischer Beschränkungen und anderer relevanter öffentlicher Verpflichtungen.