术语表

人工智能伦理

探索人工智能伦理--学习公平、透明、问责和隐私等原则,以确保负责任的人工智能开发和信任。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能伦理学是应用伦理学中的一个领域,研究与人工智能(AI)系统的设计、开发和部署有关的道德问题。它确立了指导负责任地创造和使用人工智能技术的原则和最佳实践,旨在提高效益的同时降低潜在的风险和危害。随着人工智能越来越多地融入医疗保健、金融、自主系统和安全等关键领域,理解和应用这些伦理考虑因素对于建立公众信任和确保技术公平公正地为人类服务至关重要。这门学科处理与智能系统的公平性、问责制、透明度、隐私、安全性和更广泛的社会影响有关的复杂问题。

人工智能伦理的关键原则

有几项基本原则构成了人工智能道德开发和部署的基石:

  • 公平和非歧视人工智能系统的设计和培训应避免不公平的偏见,确保公平对待不同的人口群体。解决算法偏见问题至关重要。
  • 透明度和可解释性人工智能系统的决策过程应能为开发者、用户和监管者所理解,尤其是在高风险应用中。
  • 问责制:必须为人工智能系统的结果确立明确的责任界限,以便在出现问题时进行补救。欧盟人工智能法案》等框架旨在对人工智能问责制的各个方面进行立法。
  • 数据隐私人工智能系统必须尊重用户隐私,安全、合乎道德地处理个人数据,遵守 GDPR 等法规。
  • 可靠性和数据安全性人工智能系统应按照预期目标可靠、安全地运行,并采取强有力的安全措施,防止误用或恶意攻击

现实世界中人工智能/移动语言的相关性和应用

对于负责任的机器学习 (ML)开发和模型部署而言,人工智能伦理不仅是一个理论问题,也是一个实际需要。从数据收集、模型训练到部署和监控,整个人工智能生命周期都应考虑到伦理问题。

  1. 医疗保健:医学图像分析中,人工智能模型可协助放射科医生检测癌症等疾病。伦理方面的考虑要求高准确性、在不同患者群体中验证性能以避免诊断偏差,以及诊断建议的透明度。美国食品和药物管理局(FDA)等监管机构为医疗设备中的人工智能/移动医疗提供了包含伦理要求的指导。Ultralytics 人工智能医疗解决方案中进一步探讨了这些应用。
  2. 自动驾驶汽车自动驾驶汽车依靠复杂的人工智能进行导航和决策。在不可避免的事故场景("手推车问题")中,会出现伦理困境,这就要求为车辆的行为制定透明、预定义的伦理框架。确保这些系统的安全性和可靠性至关重要,这也是人工智能在汽车领域的重点。

相关概念和区别

理解人工智能伦理需要将其与密切相关的术语区分开来:

  • 人工智能中的偏见与人工智能伦理:偏见特指人工智能输出中的系统性不公平,通常源于有偏见的训练数据或算法。人工智能伦理是一个更广泛的框架,它将偏见与透明度、问责制和隐私权等其他道德问题一并处理。
  • 可解释的人工智能(XAI)与人工智能伦理:XAI 的重点是让人工智能决策变得可以理解。虽然透明度是人工智能伦理一个关键原则,但伦理还包括公平、隐私、社会影响等等。
  • 人工智能中的公平与人工智能伦理:公平是人工智能伦理学的一个特定目标,主要是确保不同群体之间的公平待遇和结果。人工智能伦理学则包含更广泛的道德考虑。
  • 人工智能宪法与人工智能伦理:人工智能宪法是一种特定的技术,主要用于大型语言模型(LLMs),使人工智能的行为符合一套预定义的伦理原则或规则("宪法")。这是一种实现人工智能伦理各个方面的方法,而不是整个领域本身。这种方法也有可能指导计算机视觉系统。

其他资源和工具

一些组织和资源致力于推进人工智能伦理:

开发人员、研究人员和组织可以通过遵守道德原则和利用现有工具和框架,努力确保人工智能技术,包括先进的计算机视觉 (CV)模型,如 Ultralytics YOLO11等先进的计算机视觉(CV)模型。Ultralytics 致力于促进符合道德规范的人工智能实践,这一点在"利用Ultralytics YOLOv8实现负责任的人工智能"一文中已有论述。Ultralytics HUB等平台促进了有组织的模型开发,有助于形成更有条理、更符合道德规范的工作流程。请浏览Ultralytics 综合文档Ultralytics 词汇表,了解更多定义和见解。

阅读全部