Wir haben Anthropic gegründet, um Sicherheit an die Spitze der KI-Forschung und KI-Produkte zu stellen. Unsere Forschung fließt in unsere kommerziellen Produkte ein, und unsere Modelle gehören zu den zuverlässigsten, sichersten und missbrauchsresistentesten, die heute verfügbar sind. Während sich unsere API noch in einer geschlossenen Beta-Phase befindet, arbeiten wir daran, unsere Sicherheitsfilter basierend auf Nutzerfeedback zu verbessern - und wir erwarten, dass unsere kommerziellen Kunden uns zur Rechenschaft ziehen werden, wenn unsere Sicherheitsfunktionen versagen.
Aber wir glauben, dass Sicherheit eine gemeinsame Verantwortung ist. Unsere Funktionen sind nicht ausfallsicher, und engagierte Partner sind eine zweite Verteidigungslinie. Je nach Ihrem Anwendungsfall werden Moderationsschritte unterschiedlich aussehen, aber hier sind einige zusätzliche Sicherheitsempfehlungen:
Verwenden Sie Claude als Inhaltsmoderationsfilter, um Verstöße zu identifizieren und zu verhindern.
Für nach außen gerichtete Produkte teilen Sie Ihren Nutzern mit, dass sie mit einem KI-System interagieren.
Für sensible Informationen und Entscheidungsfindung lassen Sie Inhalte vor der Verbreitung an Verbraucher von einem qualifizierten Fachmann überprüfen.
Wir ermutigen Sie, uns Feedback oder spezifische Vorschläge an usersafety@anthropic.com zu senden. Für bestehende kommerzielle Partner empfehlen wir, unserem Discord-Server beizutreten und Ideen mit anderen Entwicklern auszutauschen.