跳至主要內容
全部系列隱私權和法律
您如何在模型訓練中使用個人資料?
您如何在模型訓練中使用個人資料?
一週前已更新

像Claude這樣的大型語言模型需要在文本上進行「訓練」,以便學習單詞之間的模式和聯繫。這種訓練對於模型的有效和安全表現非常重要。

雖然我們的目的並非特意在個人數據上「訓練」我們的模型,但我們的大型語言模型的訓練數據,如同其他模型一樣,可能包括來自網絡的數據,其中可能包含公開可用的個人數據。我們使用三種來源的數據來訓練我們的模型:

  1. 通過互聯網獲得的公開可用信息

  2. 我們從第三方企業獲得許可的數據集

  3. 我們的用戶或眾包工作者提供的數據

我們採取措施通過訓練過程來最小化對個人隱私的影響。例如,我們在嚴格的政策和指導方針下運作,不訪問受密碼保護的頁面或繞過驗證碼控制。我們對我們獲得許可的數據進行盡職調查。我們也鼓勵我們的用戶不要使用我們的產品和服務來處理個人數據。此外,我們的模型被訓練以尊重隱私:Claude核心的憲法「原則」之一,基於《世界人權宣言》,是選擇最尊重每個人的隱私、獨立、聲譽、家庭、財產權和結社權的回應。

我們不會使用您的輸入或輸出來訓練我們的模型,除非:(1) 您的對話被標記為信任與安全審查(在這種情況下,我們可能會使用或分析它們以改善我們檢測和執行使用政策的能力,包括為我們的信任和安全團隊訓練模型,與Anthropic的安全使命一致),或 (2) 您已明確向我們報告了這些材料(例如通過我們的反饋機制),或 (3) 以其他方式明確選擇參與訓練。

我們的隱私政策解釋了您對您的個人數據的權利,包括與我們的訓練活動相關的權利。這包括您要求獲取您的個人數據副本的權利,以及反對我們處理您的個人數據或要求刪除的權利。我們盡一切努力回應此類請求。然而,請注意,這些權利是有限的,我們可能需要採取行動來回應您關於我們訓練數據集的請求的過程是複雜的。

要了解更多信息,或如果您想知道如何就隱私相關主題與我們聯繫,請參閱我們的隱私政策

是否回答了您的問題?