术语表

数据隐私

了解从匿名化到联合学习等人工智能/移动媒体的关键数据隐私技术,确保信任、合规和合乎道德的人工智能实践。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能(AI)机器学习(ML)领域,数据隐私包括用于保护 AI/ML 系统中涉及的个人和敏感信息的原则、法规和方法。它涉及在数据的整个生命周期(从收集和存储到处理、共享和最终处置)内防止未经授权的访问、使用、披露、篡改或销毁。鉴于人工智能/人工智能模型(如用于物体检测的模型)通常需要庞大的数据集进行训练,强大的数据隐私措施对于建立用户信任、确保法律合规性和遵守道德准则至关重要。

数据隐私在人工智能和机器学习中的重要性

数据隐私在人工智能和 ML 领域至关重要,主要有以下几个原因。首先,它能促进用户和利益相关者之间的信任。如果个人确信他们的数据得到了安全、负责任的处理,他们就更愿意与人工智能系统互动。其次,许多地区的法律都规定了数据隐私。欧洲的《通用数据保护条例》(GDPR)和《加利福尼亚消费者隐私法》(CCPA)等法规对数据保护提出了严格要求,并对违规行为处以重罚。第三,维护数据隐私是人工智能伦理的一个基本方面,确保人工智能系统尊重个人权利,防止滥用个人信息造成伤害。

确保数据隐私的技术

人工智能和 ML 应用中采用了各种技术来保护数据隐私:

  • 匿名化:这一过程包括删除或更改数据集中的个人身份信息 (PII),使个人身份信息无法被合理识别。技术可能包括掩盖姓名或概括地点。您可以在电子隐私信息中心 (EPIC) 找到更多有关原则的信息。
  • 化名:与匿名化不同,假名化是用人工标识符或假名代替可识别的数据字段。虽然它降低了与个人的直接关联性,但如果知道假名密钥,就有可能重新识别原始数据。
  • 差分隐私:这是一个数学框架,允许企业共享有关用户习惯的综合信息,同时保留有关特定个人的信息。它在数据中加入可控的 "噪音",以保护个人隐私,同时还能进行有用的分析。探索哈佛隐私工具项目等资源,以获得更深入的见解。
  • 联合学习:这种技术通过多个分散的设备或服务器对持有本地数据样本的 ML 模型进行训练,而不交换原始数据本身。只共享模型更新,大大提高了隐私性。Google 已就这一主题发表了大量文章,例如在Google 人工智能博客上发表的关于联合学习的文章。
  • 同态加密:一种更先进的加密方法,可以在不首先解密的情况下对加密数据进行计算,确保数据即使在处理过程中也能保持机密。

数据隐私在 AI/ML 中的现实应用

数据隐私技术在各种人工智能/人工智能应用中至关重要:

  1. 医疗保健:在医疗保健领域的人工智能中,尤其是在医疗图像分析等任务中,必须严格保护患者数据。匿名化和联合学习可让医院在不同数据集上协作训练诊断模型,而无需共享敏感的患者记录,从而遵守 HIPAA 等法规。
  2. 金融:银行和金融机构将人工智能用于欺诈检测、信用评分和个性化服务。差分隐私和安全多方计算等技术有助于分析交易模式和客户数据,同时保护财务细节并遵守金融隐私法规。

相关概念

必须将数据隐私与相关的数据安全概念区分开来。数据隐私侧重于规范如何收集、使用、存储和适当共享个人数据的规则和政策。与此相反,数据安全涉及为保护数据免遭未经授权的访问、泄露和网络威胁而实施的技术措施(如加密、防火墙、访问控制)。强大的数据安全是有效保护数据隐私的必要基础。这两者都是构建值得信赖的人工智能系统的关键组成部分,通常通过强大的机器学习运营(MLOps)进行管理。

结论

数据隐私是负责任地开发和部署人工智能和 ML 技术的基础。通过实施强大的隐私增强技术并遵守法律和道德标准,企业可以创建强大的人工智能系统,赢得公众的信任。随着人工智能的不断进步,优先考虑数据隐私对于负责任地推动创新至关重要。Ultralytics 致力于支持数据隐私和安全方面的最佳实践,为安全管理人工智能项目提供Ultralytics HUB等工具。有关我们承诺的更多详情,请查看Ultralytics 法律政策

阅读全部