跳至主要內容
全部系列信任與安全
我們使用政策的例外情況
我們使用政策的例外情況
一個月前已更新

Anthropic 維持一個全面的使用政策,以確保我們的人工智能系統得到負責任的部署。如果在 Anthropic 的判斷中,合約使用限制和適用的保障措施足以減輕本使用政策所針對的潛在危害,Anthropic 可能會與政府客戶簽訂合約,根據該客戶的公共使命和法律權限來調整使用限制。

例如,對於經過仔細篩選的政府實體,我們可能允許根據適用法律進行外國情報分析。我們使用政策中的所有其他使用限制,包括禁止用於虛假信息宣傳、武器設計或使用、審查、國內監視和惡意網絡操作的限制,仍然保持不變。

目前,此政策僅適用於根據我們的負責任擴展政策(RSP)屬於人工智能安全等級 2(ASL-2)的模型。

哪些政府實體有資格獲得使用政策的修改?

我們評估是否根據政府實體的使命和法律權限調整使用限制時,旨在平衡促進我們產品和服務的有益使用與減輕潛在危害,包括:

  • 我們對模型是否適合提議的使用案例的評估。

  • 相關機構的法律權限。

  • 該機構願意與 Anthropic 進行持續對話的程度。

  • 防止濫用和減輕錯誤風險的現有保障措施。

  • 對這些組織及其使用人工智能技術的獨立和民主監督程度,包括立法或監管限制以及其他相關的公開承諾。

是否回答了您的問題?