跳至主要內容

我正在計劃使用Claude推出一個產品。我應該採取哪些步驟來確保不違反Anthropic的使用政策?

今日已更新

我們創立 Anthropic 是為了將安全性置於 AI 研究和 AI 產品的前沿。我們的研究為我們的商業產品提供資訊,而我們的模型是目前最可靠安全且最能抵抗濫用的模型之一。雖然我們的 API 仍處於封閉測試階段,但我們正在根據用戶反饋改進我們的安全過濾器——我們期望當我們的安全功能失效時,我們的商業客戶會追究我們的責任。

但我們相信安全是共同的責任。我們的功能並非萬無一失,而承諾的合作夥伴是第二道防線。根據您的使用案例,審核步驟會有所不同,但以下是一些額外的安全建議:

  • 使用 Claude 作為內容審核過濾器來識別和防止違規行為。

  • 對於面向外部的產品,請向您的用戶披露他們正在與 AI 系統互動。

  • 對於敏感資訊和決策制定,在向消費者傳播內容之前,請讓合格的專業人員審查內容。

我們鼓勵您向 usersafety@anthropic.com 發送反饋或具體建議。對於現有的商業合作夥伴,我們建議加入我們的 Discord 伺服器,與其他開發者交流想法。

是否回答了您的問題?