Wir haben Anthropic gegründet, um Sicherheit an die Spitze der KI-Forschung und KI-Produkte zu stellen. Unsere Forschung fließt in unsere kommerziellen Produkte ein, und unsere Modelle gehören zu den zuverlässigsten und missbrauchsresistentesten, die heute verfügbar sind. Während unsere API sich noch in einer geschlossenen Beta-Phase befindet, arbeiten wir daran, unsere Sicherheitsfilter basierend auf Nutzerfeedback zu verbessern - und wir erwarten, dass unsere kommerziellen Kunden uns zur Rechenschaft ziehen werden, wenn unsere Sicherheitsfunktionen versagen.
Aber wir glauben, dass Sicherheit eine gemeinsame Verantwortung ist. Unsere Funktionen sind nicht fehlerfrei, und engagierte Partner bilden eine zweite Verteidigungslinie. Je nach Anwendungsfall werden die Moderationsschritte unterschiedlich aussehen, aber hier sind einige zusätzliche Sicherheitsempfehlungen:
Verwenden Sie Claude als Inhaltsmoderationsfilter, um Verstöße zu identifizieren und zu verhindern.
Informieren Sie bei nach außen gerichteten Produkten Ihre Nutzer darüber, dass sie mit einem KI-System interagieren.
Lassen Sie bei sensiblen Informationen und Entscheidungsfindungen die Inhalte von einem qualifizierten Fachmann überprüfen, bevor sie an Verbraucher weitergegeben werden.
Wir ermutigen Sie, uns Feedback oder konkrete Vorschläge an usersafety@anthropic.com zu senden. Für bestehende kommerzielle Partner empfehlen wir, unserem Discord-Server beizutreten und sich mit anderen Entwicklern auszutauschen.