メインコンテンツにスキップ

Claudeを使用して製品をローンチする予定です。Anthropicの利用規約に違反しないようにするために、どのような手順を踏むべきでしょうか?

今週アップデートされました

私たちはAI研究とAI製品の最前線に安全性を置くためにAnthropicを設立しました。私たちの研究は商用製品に活かされており、私たちのモデルは現在利用可能な中で最も信頼性が高く安全で、悪用に対する耐性を持つものの一つです。私たちのAPIはまだクローズドベータ版ですが、ユーザーフィードバックに基づいて安全フィルターの改善に取り組んでおり、私たちの安全機能が機能しない場合には、商用顧客が私たちに責任を求めることを期待しています。

しかし、安全性は共有責任であると私たちは信じています。私たちの機能は完全ではなく、コミットしたパートナーが第二の防御線となります。ユースケースによってモデレーションの手順は異なりますが、以下に追加の安全性に関する推奨事項をご紹介します:

  • Claudeをコンテンツモデレーションフィルターとして使用し、違反を特定し防止する。

  • 外部向け製品については、ユーザーがAIシステムと対話していることを開示する。

  • 機密情報や意思決定については、消費者への配布前に資格を持つ専門家にコンテンツをレビューしてもらう。

フィードバックや具体的な提案をusersafety@anthropic.comまでお送りいただくことをお勧めします。既存の商用パートナーの方には、私たちのDiscordサーバーに参加し、他の開発者と意見交換することもお勧めします。

こちらの回答で解決しましたか?