Alle Kollektionen
Claude API
Ich plane, ein Produkt mit Claude zu starten. Welche Schritte sollte ich unternehmen, um sicherzustellen, dass ich die Acceptable Use Policy von Anthropic nicht verletze?
Ich plane, ein Produkt mit Claude zu starten. Welche Schritte sollte ich unternehmen, um sicherzustellen, dass ich die Acceptable Use Policy von Anthropic nicht verletze?
Vor über einer Woche aktualisiert

Wir haben Anthropic gegründet, um die Sicherheit an die Grenze der KI-Forschung und KI-Produkte zu stellen. Unsere Forschung informiert unsere kommerziellen Produkte, und unsere Modelle gehören zu den zuverlässigsten, die heute verfügbar sind und am wenigsten missbraucht werden können. Obwohl sich unsere API noch in einer geschlossenen Beta-Phase befindet, arbeiten wir daran, unsere Sicherheitsfilter basierend auf dem Feedback der Nutzer zu verbessern - und wir erwarten, dass unsere kommerziellen Kunden uns zur Rechenschaft ziehen werden, wenn unsere Sicherheitsfunktionen versagen.

Aber wir glauben, dass Sicherheit eine gemeinsame Verantwortung ist. Unsere Funktionen sind nicht fehlerfrei, und engagierte Partner sind eine zweite Verteidigungslinie.

Je nach Anwendungsfall sehen Moderationsschritte anders aus, aber hier sind einige zusätzliche Sicherheitsempfehlungen:

  • Verwenden Sie Claude als Inhaltsmoderations-Filter, um Verstöße zu identifizieren und zu verhindern.

  • Informieren Sie Ihre Nutzer bei extern zugänglichen Produkten darüber, dass sie mit einem KI-System interagieren.

  • Lassen Sie für sensible Informationen und Entscheidungen einen qualifizierten Experten Inhalte überprüfen, bevor sie an Verbraucher weitergegeben werden.

Wir ermutigen Sie, uns Feedback oder konkrete Vorschläge an usersafety@anthropic.com zu senden. Für bestehende kommerzielle Partner empfehlen wir Ihnen, unserem Discord-Server beizutreten und sich mit anderen Entwicklern auszutauschen.

Hat dies Ihre Frage beantwortet?