Мы основали Anthropic, чтобы поставить безопасность на передний край исследований ИИ и продуктов ИИ. Наши исследования информируют наши коммерческие продукты, и наши модели являются одними из наиболее надежно безопасных и устойчивых к злоупотреблениям, доступных сегодня. Хотя наш API все еще находится в закрытой бета-версии, мы работаем над улучшением наших фильтров безопасности на основе отзывов пользователей - и мы ожидаем, что наши коммерческие клиенты будут держать нас в ответе, когда наши функции безопасности не срабатывают.
Но мы считаем, что безопасность - это общая ответственность. Наши функции не являются безотказными, а преданные партнеры - вторая линия защиты. В зависимости от вашего случая использования, шаги модерации будут выглядеть по-разному, но вот некоторые дополнительные рекомендации по безопасности:
Используйте Claude в качестве фильтра модерации контента для выявления и предотвращения нарушений.
Для продуктов, ориентированных на внешних пользователей, сообщайте своим пользователям, что они взаимодействуют с системой ИИ.
Для конфиденциальной информации и принятия решений квалифицированный специалист должен проверять контент перед распространением среди потребителей.
Мы призываем вас присылать нам отзывы или конкретные предложения по адресу usersafety@anthropic.com. Для существующих коммерческих партнеров мы рекомендуем присоединиться к нашему серверу Discord и обмениваться идеями с другими разработчиками.