绿色检查
链接复制到剪贴板

以 "负责任的人工智能 "为目标Ultralytics YOLOv8

通过Ultralytics YOLOv8 ,学习如何遵循最佳道德和安全实践,优先考虑公平、合规的人工智能创新,从而开发出负责任的人工智能解决方案。

人工智能的未来掌握在开发人员、技术爱好者、商界领袖和其他利益相关者的手中,他们正在使用诸如 Ultralytics YOLOv8等工具和模型来推动创新。然而,创造有影响力的人工智能解决方案不仅仅是使用先进的技术。还要负责任地去做。 

最近,负责任的人工智能一直是人工智能社区的热门话题,越来越多的人在谈论它的重要性并分享他们的想法。从在线讨论到行业活动,人们越来越关注如何让人工智能不仅强大,而且合乎道德。这些对话的一个共同主题是强调要确保为人工智能项目 做出贡献的每个人在每个阶段都保持一种以负责任的人工智能为中心的心态。 

在本文中,我们将首先探讨与负责任的人工智能相关的一些近期事件和讨论。然后,我们将仔细研究开发计算机视觉项目所面临的独特道德和安全挑战,以及如何确保您的工作既有创新性又符合道德规范。通过奉行负责任的人工智能原则,我们可以创造出真正造福于每个人的人工智能!

2024 年负责任的人工智能

近年来,人们明显推动人工智能更加合乎道德。2019 年,只有 5%的组织制定了人工智能伦理准则,但到 2020 年,这一数字已跃升至 45%。因此,我们开始看到更多与这种道德转变的挑战和成功有关的新闻报道。特别是,关于生成式人工智能以及如何负责任地使用 人工智能的话题一直备受关注。

2024 年第一季度,Google的人工智能聊天机器人"双子座"(Gemini)被广泛讨论,它可以根据文本提示生成图像。特别是,"双子座 "被用来创建将各种历史人物(如二战德国士兵)描绘成有色人种的图像。该人工智能聊天机器人旨在使其生成的图像中的人物形象多样化,以实现有意的包容性。然而,有时系统会误解某些语境,导致生成的图像被认为不准确、不恰当。

图 1双子座生成的图像。

Google该公司的搜索主管普拉巴卡尔-拉加万(Prabhakar Raghavan)在一篇博文中解释说,人工智能变得过于谨慎,甚至拒绝根据中性提示生成图像。虽然双子座的图像生成功能旨在促进视觉内容的多样性和包容性,但却引发了人们对历史表述准确性的担忧,以及对偏见和负责任的人工智能开发的广泛影响。关于如何在人工智能生成的内容中促进多样化表现的目标与保证准确性和防止错误表现的需要之间取得平衡,人们一直在争论不休。

诸如此类的故事清楚地表明,随着人工智能不断发展并日益融入我们的日常生活,开发人员和公司所做的决定会对社会产生重大影响。在下一部分,我们将深入探讨在 2024 年负责任地构建和管理人工智能系统的技巧和最佳实践。无论您是刚刚起步还是希望完善自己的方法,这些指南都将帮助您为一个更加负责任的人工智能未来做出贡献。

YOLOv8 项目中的伦理考虑因素

在使用 YOLOv8的计算机视觉解决方案时,必须牢记一些关键的道德考虑因素,如偏见、公平、隐私、可访问性和包容性。让我们通过一个实际例子来了解这些因素。

图 2人工智能中的伦理和法律问题。

比方说,您正在为一家医院开发一个监控系统,用于监视走廊上的可疑行为。该系统可以使用YOLOv8 来检测诸如在禁区逗留的人员、未经授权的访问,甚至发现可能需要帮助的病人,如误入不安全区域的病人。该系统将分析来自医院各处监控摄像头的实时视频,并在发生异常情况时向安保人员发送实时警报。

如果您的YOLOv8 模型是在有偏见的数据上训练出来的,那么它最终可能会基于种族或性别等因素不公平地针对某些人群,从而导致错误警报甚至歧视。为了避免这种情况,必须平衡数据集,并使用技术来检测和纠正任何偏差,例如:

  • 数据扩充:用不同的示例来增强数据集,确保所有群体的均衡代表性。
  • 重新取样:调整训练数据中代表性不足的类别的频率,以平衡数据集。
  • 公平意识算法:实施专为减少预测偏差而设计的算法。
  • 偏差检测工具:使用分析模型预测的工具来识别和纠正偏差。

隐私是另一个重大问题,尤其是在医院等涉及敏感信息的环境中。YOLOv8 可能会捕捉到病人和员工的个人细节,如他们的脸部或活动。为了保护他们的隐私,您可以采取一些措施,比如对数据进行匿名处理以删除任何可识别的信息,在使用个人数据前征得个人的适当同意,或在视频画面中模糊人脸。对数据进行加密并确保其安全存储和传输以防止未经授权的访问也是一个好主意。

同样重要的是,在设计系统时要考虑到无障碍和包容性。您应确保系统适用于所有人,无论其能力如何。在医院环境中,这意味着系统应该便于所有员工、病人和访客使用,包括那些有残疾或其他无障碍需求的人。在这方面,拥有一个多元化的团队可以起到很大的作用。来自不同背景的团队成员可以提供新的见解,帮助识别可能被忽略的潜在问题。通过引入不同的视角,您更有可能建立一个对用户友好、适合各类人群使用的系统。

安全最佳做法YOLOv8

在实际应用中部署YOLOv8 时,必须优先考虑安全性,以保护模型及其使用的数据。例如,机场的队列管理系统利用计算机视觉和YOLOv8 监控旅客流量。YOLOv8 可用于跟踪旅客通过安检站、登机口和其他区域的情况,帮助识别拥堵点并优化人流以减少等待时间。该系统可使用放置在机场周围的摄像机捕捉实时视频画面,YOLOv8 ,对乘客进行实时检测和计数。从这一系统中获得的信息可用于在排队时间过长时提醒工作人员,自动开放新的检查站,或调整人员配置水平,使运营更加顺畅。

图 3机场售票柜台的队列管理Ultralytics YOLOv8 。

在这种情况下,确保YOLOv8 模型免受攻击和篡改至关重要。为此,可以对模型文件进行加密,这样未经授权的用户就无法轻易访问或更改这些文件。您可以在安全服务器上部署模型,并设置访问控制以防止篡改。定期的安全检查和审计有助于发现任何漏洞,确保系统安全。类似的方法也可用于保护敏感数据,如乘客视频馈送。

为了进一步加强安全性,可以将Snyk、GitHub CodeQL 和 Dependabot等工具集成到开发流程中。Snyk 可帮助识别并修复代码和依赖项中的漏洞,GitHub CodeQL 可扫描代码中的安全问题,而 Dependabot 可使依赖项及时更新最新的安全补丁。在Ultralytics ,这些工具都是用来检测和预防安全漏洞的。

常见陷阱及如何避免这些陷阱

尽管用心良苦并遵循最佳实践,但失误仍然可能发生,从而使您的人工智能解决方案存在漏洞,尤其是在道德和安全方面。了解这些常见问题 可以帮助您主动解决这些问题 ,并建立更强大的YOLOv8 模型。以下是一些需要注意的陷阱以及如何避免这些陷阱的技巧:

  • 忽视遵守法规:不遵守人工智能法规可能会导致法律困境并损害您的声誉。请随时了解相关法律的最新信息,如有关数据保护的 GDPR,并通过定期进行合规性检查来确保您的模型符合要求。
  • 实际条件测试不足:未经实际条件测试的模型在部署时可能会失败。在测试过程中模拟真实世界的边缘情况,以便及早发现潜在问题,并调整模型,使其更便于所有人使用。
  • 缺乏问责措施:如果不明确谁对人工智能系统的不同部分负责,就很难处理错误、偏差或误用,这可能会导致更严重的问题。通过定义团队内部的角色和职责,建立明确的人工智能成果责任制,并制定在出现问题时的处理流程。
  • 不考虑环境影响:人工智能模型可能会对环境造成严重影响。例如,大规模部署可能需要数据中心的支持,而数据中心需要消耗大量能源来处理密集计算。您可以优化模型,提高能效,并考虑训练和部署过程对环境影响
  • 忽视文化敏感性:不考虑文化差异而训练的模型在某些情况下可能不合适或令人反感。通过在数据和开发过程中纳入不同的文化视角,确保您的人工智能解决方案尊重文化规范和价值观。
图 4道德原则和要求。

利用YOLOv8 

使用YOLOv8 构建人工智能解决方案提供了许多令人兴奋的可能性,但必须牢记道德和安全。通过关注公平性、隐私、透明度和遵循正确的准则,我们可以创建性能良好并尊重人们权利的模型。我们很容易忽视数据偏差、隐私保护或确保每个人都能使用系统等问题,但花时间解决这些问题可以改变游戏规则。当我们利用YOLOv8 等工具不断推动人工智能的发展时,让我们记住技术的人性一面。通过深思熟虑和积极主动,我们可以打造出负责任和先进的人工智能创新!

请务必加入我们的社区,了解人工智能领域的最新动态!此外,您还可以访问我们的GitHub 存储库,探索我们在制造自动驾驶等各个领域的解决方案,了解更多有关人工智能的信息。

Facebook 徽标Twitter 徽标LinkedIn 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅