跳转到主要内容
所有收藏隐私和法律
你们如何在模型训练中使用个人数据?
你们如何在模型训练中使用个人数据?
一周前更新

像Claude这样的大型语言模型需要在文本上进行"训练",以便学习单词之间的模式和联系。这种训练对于模型的有效和安全表现非常重要。

虽然我们的目的并非专门在个人数据上"训练"我们的模型,但我们的大型语言模型的训练数据,与其他模型一样,可能包括来自网络的数据,其中可能包含公开可用的个人数据。我们使用来自三个来源的数据来训练我们的模型:

  1. 通过互联网获得的公开信息

  2. 我们从第三方企业获得许可的数据集

  3. 我们的用户或众包工作者提供的数据

我们采取措施通过训练过程最大限度地减少对个人隐私的影响。例如,我们在严格的政策和指导方针下运作,不访问受密码保护的页面或绕过验证码控制。我们对我们获得许可的数据进行尽职调查。我们也鼓励我们的用户不要使用我们的产品和服务来处理个人数据。此外,我们的模型被训练以尊重隐私:Claude核心的宪法"原则"之一,基于《世界人权宣言》,是选择最尊重每个人的隐私、独立、声誉、家庭、财产权和结社权的回应。

我们不会使用您的输入或输出来训练我们的模型,除非:(1) 您的对话因信任和安全审查而被标记(在这种情况下,我们可能会使用或分析它们以提高我们检测和执行使用政策的能力,包括为我们的信任和安全团队训练模型,与Anthropic的安全使命一致),或 (2) 您已明确向我们报告了这些材料(例如通过我们的反馈机制),或 (3) 通过其他方式明确选择参与训练。

我们的隐私政策解释了您对您的个人数据的权利,包括与我们的训练活动有关的权利。这包括您请求获取您的个人数据副本的权利,以及反对我们处理您的个人数据或要求删除它的权利。我们会尽一切努力回应此类请求。但是,请注意,这些权利是有限的,我们可能需要采取行动处理您关于我们训练数据集的请求的过程是复杂的。

要了解更多信息,或如果您想知道如何就隐私相关主题与我们联系,请参阅我们的隐私政策

这是否解答了您的问题?