К основному содержимому
Все коллекцииClaude API
Я планирую запустить продукт с использованием Claude. Какие шаги мне следует предпринять, чтобы убедиться, что я не нарушаю Политику использования Anthropic?
Я планирую запустить продукт с использованием Claude. Какие шаги мне следует предпринять, чтобы убедиться, что я не нарушаю Политику использования Anthropic?
Обновлено больше недели назад

Мы основали Anthropic, чтобы поставить безопасность во главу угла исследований и продуктов в области искусственного интеллекта. Наши исследования влияют на наши коммерческие продукты, и наши модели являются одними из самых надежных и устойчивых к злоупотреблениям на сегодняшний день. Хотя наш API все еще находится в закрытой бета-версии, мы работаем над улучшением наших фильтров безопасности на основе отзывов пользователей - и мы ожидаем, что наши коммерческие клиенты будут привлекать нас к ответственности, когда наши функции безопасности не работают.

Но мы считаем, что безопасность - это общая ответственность. Наши функции не являются безотказными, и преданные партнеры являются второй линией защиты. В зависимости от вашего случая использования, шаги модерации будут выглядеть по-разному, но вот некоторые дополнительные рекомендации по безопасности:

  • Используйте Claude в качестве фильтра модерации контента для выявления и предотвращения нарушений.

  • Для продуктов, ориентированных на внешних пользователей, сообщайте вашим пользователям, что они взаимодействуют с системой искусственного интеллекта.

  • Для работы с конфиденциальной информацией и принятия решений, пусть квалифицированный специалист проверяет контент перед его распространением потребителям.

Мы призываем вас отправлять нам отзывы или конкретные предложения на адрес usersafety@anthropic.com. Для существующих коммерческих партнеров мы рекомендуем присоединиться к нашему серверу Discord и обмениваться идеями с другими разработчиками.

Нашли ответ на свой вопрос?