跳至主要內容
全部系列信任與安全
負責任使用Anthropic模型:為服務未成年人的組織提供的指南
負責任使用Anthropic模型:為服務未成年人的組織提供的指南
一週前已更新

在Anthropic,我們認識到兒童在數位空間中的獨特脆弱性和需求。為了創造一個更安全的數位環境並降低風險,為未成年人提供直接與我們API產品互動能力的組織應實施以下保護措施:

1. 額外的技術措施

為未成年人提供服務的組織應根據其獨特的使用案例實施額外的安全功能,因為他們最了解其最終用戶可能與包含Anthropic服務的產品互動的具體方式。這些安全措施可能包括但不限於:

  • 年齡驗證系統,以確保只有預期用戶才能訪問產品

  • 內容審核和過濾,以阻擋不適當或有害的內容

  • 監控和報告機制,以識別和解決潛在問題

  • 為未成年人提供關於安全和負責任使用產品的教育資源和指導

除了這些組織特定的措施外,Anthropic可能會提供旨在為某些最終用戶(包括未成年人)定制產品體驗的技術措施。例如,我們可能會提供兒童安全系統提示,為未成年人服務的組織應將其作為全面安全措施套件的一部分來實施。重要的是要注意,雖然這些技術措施很有幫助,但它們並非萬無一失,應與組織自身的安全功能結合使用,以確保對兒童安全採取全面的方法。

2. 監管合規

組織有責任遵守所有適用的兒童安全和數據隱私法規,例如美國的《兒童在線隱私保護法》(COPPA)。對這些法規的遵守應在組織的網站或類似的面向公眾的文檔中明確說明。

3. 披露要求

組織必須向其用戶披露他們正在與AI系統而非人類互動。

Anthropic將定期審核組織是否遵守這些保護措施。如果您的組織違規率高且尚未實施這些安全建議,我們可能會要求您實施它們。在被要求時未能實施這些建議,或持續保持高違規率,可能導致您的帳戶被暫停或終止。

是否回答了您的問題?