私たちはAI研究とAI製品の最前線に安全性を置くためにAnthropicを設立しました。私たちの研究は商用製品に活かされており、私たちのモデルは現在利用可能なモデルの中で最も確実に安全で、悪用に対して耐性があります。APIはまだクローズドベータ版ですが、ユーザーのフィードバックに基づいて安全性フィルターの改善に取り組んでいます。そして、安全機能が機能していない場合、商用顧客が私たちに責任を問うことを期待しています。
しかし、安全性は共有された責任であると私たちは考えています。私たちの機能は絶対的なものではなく、協力的なパートナーが第二の防衛線となります。使用事例によって、モデレーションの手順は異なりますが、以下に追加の安全性に関する推奨事項を示します:
Claudeをコンテンツモデレーションフィルターとして使用し、違反を特定し防止する。
外部向け製品の場合、ユーザーにAIシステムと対話していることを開示する。
機密情報や意思決定に関しては、消費者に情報を提供する前に、資格のある専門家にコンテンツを確認してもらう。
フィードバックや具体的な提案をusersafety@anthropic.comまでお送りいただくことをお勧めします。既存の商用パートナーの方には、Discordサーバーに参加し、他の開発者とアイデアを交換することをお勧めします。