我們創立 Anthropic 是為了將安全性置於 AI 研究和 AI 產品的前沿。我們的研究為我們的商業產品提供資訊,而我們的模型是目前最可靠安全且最能抵抗濫用的模型之一。雖然我們的 API 仍處於封閉測試階段,但我們正在根據用戶反饋改進我們的安全過濾器——我們期望當我們的安全功能失效時,我們的商業客戶會追究我們的責任。
但我們相信安全是共同的責任。我們的功能並非萬無一失,而承諾的合作夥伴是第二道防線。根據您的使用案例,審核步驟會有所不同,但以下是一些額外的安全建議:
使用 Claude 作為內容審核過濾器來識別和防止違規行為。
對於面向外部的產品,請向您的用戶披露他們正在與 AI 系統互動。
對於敏感資訊和決策制定,在向消費者傳播內容之前,請讓合格的專業人員審查內容。
我們鼓勵您向 usersafety@anthropic.com 發送反饋或具體建議。對於現有的商業合作夥伴,我們建議加入我們的 Discord 伺服器,與其他開發者交流想法。