Мы основали Anthropic, чтобы поставить безопасность во главу угла исследований и продуктов в области искусственного интеллекта. Наши исследования влияют на наши коммерческие продукты, и наши модели являются одними из самых надежных и устойчивых к злоупотреблениям на сегодняшний день. Хотя наш API все еще находится в закрытой бета-версии, мы работаем над улучшением наших фильтров безопасности на основе отзывов пользователей - и мы ожидаем, что наши коммерческие клиенты будут привлекать нас к ответственности, когда наши функции безопасности не работают.
Но мы считаем, что безопасность - это общая ответственность. Наши функции не являются безотказными, и преданные партнеры являются второй линией защиты. В зависимости от вашего случая использования, шаги модерации будут выглядеть по-разному, но вот некоторые дополнительные рекомендации по безопасности:
Используйте Claude в качестве фильтра модерации контента для выявления и предотвращения нарушений.
Для продуктов, ориентированных на внешних пользователей, сообщайте вашим пользователям, что они взаимодействуют с системой искусственного интеллекта.
Для работы с конфиденциальной информацией и принятия решений, пусть квалифицированный специалист проверяет контент перед его распространением потребителям.
Мы призываем вас отправлять нам отзывы или конкретные предложения на адрес usersafety@anthropic.com. Для существующих коммерческих партнеров мы рекомендуем присоединиться к нашему серверу Discord и обмениваться идеями с другими разработчиками.