К основному содержимому

Я планирую запустить продукт, используя Claude. Какие шаги мне следует предпринять, чтобы убедиться, что я не нарушаю Политику использования Anthropic?

Обновлено на этой неделе

Мы основали Anthropic, чтобы поставить безопасность на передний край исследований ИИ и продуктов ИИ. Наши исследования информируют наши коммерческие продукты, и наши модели являются одними из самых надежно безопасных и устойчивых к злоупотреблениям, доступных сегодня. Хотя наш API все еще находится в закрытой бета-версии, мы работаем над улучшением наших фильтров безопасности на основе отзывов пользователей - и мы ожидаем, что наши коммерческие клиенты будут привлекать нас к ответственности, когда наши функции безопасности не работают.

Но мы считаем, что безопасность - это общая ответственность. Наши функции не являются отказоустойчивыми, и преданные партнеры являются второй линией защиты. В зависимости от вашего случая использования, шаги модерации будут выглядеть по-разному, но вот некоторые дополнительные рекомендации по безопасности:

  • Используйте Claude в качестве фильтра модерации контента для выявления и предотвращения нарушений.

  • Для продуктов, обращенных к внешним пользователям, сообщайте своим пользователям, что они взаимодействуют с системой ИИ.

  • Для конфиденциальной информации и принятия решений привлекайте квалифицированного специалиста для проверки контента перед его распространением среди потребителей.

Мы призываем вас отправлять нам отзывы или конкретные предложения на usersafety@anthropic.com. Для существующих коммерческих партнеров мы рекомендуем присоединиться к нашему серверу Discord и обмениваться идеями с другими разработчиками.

Нашли ответ на свой вопрос?