Kiểm tra màu xanh lá cây
Liên kết được sao chép vào khay nhớ tạm

Tiếp cận AI có trách nhiệm với Ultralytics YOLOv8

Học cách phát triển các giải pháp AI có trách nhiệm với Ultralytics YOLOv8 bằng cách tuân thủ các thông lệ đạo đức và bảo mật tốt nhất và ưu tiên các cải tiến AI công bằng và tuân thủ.

Tương lai của AI nằm trong tay các nhà phát triển, những người đam mê công nghệ, các nhà lãnh đạo doanh nghiệp và các bên liên quan khác đang sử dụng các công cụ và mô hình như Ultralytics YOLOv8 để thúc đẩy đổi mới. Tuy nhiên, việc tạo ra các giải pháp AI có tác động không chỉ là sử dụng công nghệ tiên tiến. Mà còn là thực hiện một cách có trách nhiệm. 

AI có trách nhiệm đã trở thành chủ đề thảo luận phổ biến trong cộng đồng AI gần đây, với ngày càng nhiều người nói về tầm quan trọng của AI và chia sẻ suy nghĩ của họ. Từ các cuộc thảo luận trực tuyến đến các sự kiện trong ngành, ngày càng có nhiều sự tập trung vào cách chúng ta có thể khiến AI không chỉ mạnh mẽ mà còn có đạo đức . Một chủ đề chung trong các cuộc thảo luận này là nhấn mạnh vào việc đảm bảo rằng mọi người đóng góp vào một dự án AI đều duy trì tư duy tập trung vào AI có trách nhiệm ở mọi giai đoạn. 

Trong bài viết này, chúng ta sẽ bắt đầu bằng cách khám phá một số sự kiện và thảo luận gần đây liên quan đến AI có trách nhiệm. Sau đó, chúng ta sẽ xem xét kỹ hơn những thách thức về đạo đức và bảo mật độc đáo khi phát triển các dự án thị giác máy tính và cách đảm bảo công việc của bạn vừa mang tính sáng tạo vừa mang tính đạo đức. Bằng cách áp dụng các nguyên tắc AI có trách nhiệm, chúng ta có thể tạo ra AI thực sự mang lại lợi ích cho mọi người!

AI có trách nhiệm vào năm 2024

Trong những năm gần đây, đã có một động thái đáng chú ý hướng tới việc khiến AI trở nên đạo đức hơn. Năm 2019, chỉ có 5% các tổ chức thiết lập các hướng dẫn đạo đức cho AI , nhưng đến năm 2020, con số này đã tăng vọt lên 45%. Do đó, chúng ta bắt đầu thấy nhiều câu chuyện tin tức liên quan đến những thách thức và thành công của sự thay đổi về mặt đạo đức này. Đặc biệt, đã có rất nhiều tiếng vang về AI tạo sinh và cách sử dụng nó một cách có trách nhiệm .

Trong quý đầu tiên của năm 2024, Google Trò chuyện trực tuyến AI Gemini, có thể tạo hình ảnh dựa trên lời nhắc văn bản, đã được thảo luận rộng rãi. Đặc biệt, Gemini được sử dụng để tạo hình ảnh mô tả nhiều nhân vật lịch sử khác nhau, chẳng hạn như những người lính Đức trong Thế chiến II, là người da màu. Trò chuyện trực tuyến AI được thiết kế để đa dạng hóa việc mô tả con người trong hình ảnh do nó tạo ra để có tính bao gồm một cách có chủ đích. Tuy nhiên, đôi khi, hệ thống đã hiểu sai một số bối cảnh nhất định, dẫn đến hình ảnh bị coi là không chính xác và không phù hợp.

Hình 1: Hình ảnh được tạo ra bởi Gemini.

Google Trưởng bộ phận tìm kiếm của Gemini, Prabhakar Raghavan, đã giải thích trong một bài đăng trên blog rằng AI trở nên quá thận trọng và thậm chí từ chối tạo hình ảnh để phản hồi các lời nhắc trung lập. Trong khi tính năng tạo hình ảnh của Gemini được thiết kế để thúc đẩy sự đa dạng và tính bao hàm trong nội dung trực quan, làm dấy lên mối lo ngại về tính chính xác của các biểu diễn lịch sử và những tác động rộng hơn đối với sự thiên vị và phát triển AI có trách nhiệm. Có một cuộc tranh luận đang diễn ra về cách cân bằng mục tiêu thúc đẩy các biểu diễn đa dạng trong nội dung do AI tạo ra với nhu cầu về tính chính xác và các biện pháp bảo vệ chống lại sự trình bày sai lệch.

Những câu chuyện như thế này cho thấy rõ ràng rằng khi AI tiếp tục phát triển và ngày càng tích hợp nhiều hơn vào cuộc sống hàng ngày của chúng ta , các quyết định do các nhà phát triển và công ty đưa ra có thể tác động đáng kể đến xã hội. Trong phần tiếp theo, chúng ta sẽ đi sâu vào các mẹo và phương pháp hay nhất để xây dựng và quản lý các hệ thống AI một cách có trách nhiệm vào năm 2024. Cho dù bạn mới bắt đầu hay đang muốn tinh chỉnh cách tiếp cận của mình, những hướng dẫn này sẽ giúp bạn đóng góp vào tương lai AI có trách nhiệm hơn.

Những cân nhắc về đạo đức trong YOLOv8 Dự án

Khi xây dựng các giải pháp thị giác máy tính với YOLOv8 , điều quan trọng là phải ghi nhớ một số cân nhắc đạo đức chính, như sự thiên vị, công bằng, quyền riêng tư, khả năng truy cập và tính bao hàm. Hãy cùng xem xét các yếu tố này với một ví dụ thực tế.

Hình 2. Những cân nhắc về mặt đạo đức và pháp lý trong AI.

Giả sử bạn đang phát triển một hệ thống giám sát cho một bệnh viện để theo dõi hành lang để phát hiện hành vi đáng ngờ. Hệ thống có thể sử dụng YOLOv8 để phát hiện những thứ như người nán lại ở khu vực hạn chế, truy cập trái phép hoặc thậm chí phát hiện bệnh nhân có thể cần giúp đỡ, chẳng hạn như những người đi vào khu vực không an toàn . Nó sẽ phân tích các nguồn cấp dữ liệu video trực tiếp từ camera an ninh trên khắp bệnh viện và gửi cảnh báo thời gian thực cho nhân viên an ninh khi có điều gì đó bất thường xảy ra.

Nếu bạn YOLOv8 mô hình được đào tạo trên dữ liệu thiên vị, nó có thể nhắm mục tiêu không công bằng vào một số nhóm người nhất định dựa trên các yếu tố như chủng tộc hoặc giới tính, dẫn đến cảnh báo sai hoặc thậm chí là phân biệt đối xử. Để tránh điều này, điều cần thiết là phải cân bằng tập dữ liệu của bạn và sử dụng các kỹ thuật để phát hiện và sửa bất kỳ sự thiên vị nào, chẳng hạn như:

  • Mở rộng dữ liệu : Việc mở rộng tập dữ liệu bằng nhiều ví dụ đa dạng đảm bảo sự biểu diễn cân bằng giữa tất cả các nhóm.
  • Lấy mẫu lại: Điều chỉnh tần suất của các lớp chưa được đại diện đầy đủ trong dữ liệu đào tạo để cân bằng tập dữ liệu.
  • Thuật toán nhận biết tính công bằng: Triển khai các thuật toán được thiết kế riêng để giảm sai lệch trong dự đoán.
  • Công cụ phát hiện sai lệch: Sử dụng các công cụ phân tích dự đoán của mô hình để xác định và sửa lỗi sai lệch.

Quyền riêng tư cũng là một mối quan tâm lớn, đặc biệt là ở những nơi liên quan đến thông tin nhạy cảm như bệnh viện . YOLOv8 có thể ghi lại thông tin cá nhân của bệnh nhân và nhân viên , như khuôn mặt hoặc hoạt động của họ. Để bảo vệ quyền riêng tư của họ, bạn có thể thực hiện các bước như ẩn danh dữ liệu để xóa bất kỳ thông tin nhận dạng nào, xin sự đồng ý thích hợp từ cá nhân trước khi sử dụng dữ liệu của họ hoặc làm mờ khuôn mặt trong nguồn cấp dữ liệu video . Bạn cũng nên mã hóa dữ liệu và đảm bảo dữ liệu được lưu trữ và truyền đi một cách an toàn để ngăn chặn truy cập trái phép.

Thiết kế hệ thống của bạn sao cho dễ tiếp cận và toàn diện cũng rất quan trọng. Bạn nên đảm bảo hệ thống hoạt động hiệu quả với mọi người, bất kể khả năng của họ. Trong bối cảnh bệnh viện, điều này có nghĩa là hệ thống phải dễ sử dụng đối với tất cả nhân viên, bệnh nhân và khách thăm, bao gồm cả những người khuyết tật hoặc có nhu cầu tiếp cận khác. Có một nhóm đa dạng có thể tạo ra sự khác biệt lớn ở đây. Các thành viên trong nhóm có xuất thân khác nhau có thể đưa ra những hiểu biết mới và giúp xác định các vấn đề tiềm ẩn có thể bị bỏ sót. Bằng cách đưa ra nhiều góc nhìn khác nhau, bạn có nhiều khả năng xây dựng một hệ thống thân thiện với người dùng và dễ tiếp cận với nhiều người.

Thực hành bảo mật tốt nhất cho YOLOv8

Khi triển khai YOLOv8 trong các ứng dụng thực tế, điều quan trọng là phải ưu tiên bảo mật để bảo vệ cả mô hình và dữ liệu mà nó sử dụng. Ví dụ, hãy lấy hệ thống quản lý hàng đợi tại sân bay sử dụng thị giác máy tính với YOLOv8 để theo dõi lưu lượng hành khách. YOLOv8 có thể được sử dụng để theo dõi chuyển động của hành khách qua các trạm kiểm soát an ninh, cổng lên máy bay và các khu vực khác để giúp xác định các điểm tắc nghẽn và tối ưu hóa luồng người để giảm thời gian chờ đợi. Hệ thống có thể sử dụng các camera được đặt ở những vị trí chiến lược xung quanh sân bay để ghi lại các nguồn cấp dữ liệu video trực tiếp, với YOLOv8 phát hiện và đếm hành khách theo thời gian thực. Sau đó, thông tin chi tiết từ hệ thống này có thể được sử dụng để cảnh báo nhân viên khi hàng đợi quá dài, tự động mở các trạm kiểm soát mới hoặc điều chỉnh mức độ nhân sự để hoạt động diễn ra suôn sẻ hơn.

Hình 3 Quản lý hàng đợi tại quầy vé sân bay sử dụng Ultralytics YOLOv8 .

Trong bối cảnh này, việc đảm bảo YOLOv8 mô hình chống lại các cuộc tấn công và giả mạo là rất quan trọng. Điều này có thể được thực hiện bằng cách mã hóa các tệp mô hình để người dùng trái phép không thể dễ dàng truy cập hoặc thay đổi chúng. Bạn có thể triển khai mô hình trên các máy chủ an toàn và thiết lập các biện pháp kiểm soát truy cập để ngăn chặn giả mạo. Kiểm tra và kiểm toán bảo mật thường xuyên có thể giúp phát hiện bất kỳ lỗ hổng nào và giữ cho hệ thống an toàn . Các phương pháp tương tự có thể được sử dụng để bảo vệ dữ liệu nhạy cảm, chẳng hạn như nguồn cấp dữ liệu video của hành khách.

Để tăng cường bảo mật hơn nữa, các công cụ như Snyk, GitHub CodeQL và Dependabot có thể được tích hợp vào quy trình phát triển. Snyk giúp xác định và sửa các lỗ hổng trong mã và các phụ thuộc, GitHub CodeQL quét mã để tìm các vấn đề bảo mật và Dependabot luôn cập nhật các phụ thuộc với các bản vá bảo mật mới nhất. Tại Ultralytics , các công cụ này đã được triển khai để phát hiện và ngăn chặn các lỗ hổng bảo mật.

Những cạm bẫy thường gặp và cách tránh chúng

Mặc dù có ý định tốt và tuân thủ các thông lệ tốt nhất, vẫn có thể xảy ra sai sót, để lại khoảng trống trong các giải pháp AI của bạn, đặc biệt là khi nói đến đạo đức và bảo mật. Nhận thức được những vấn đề phổ biến này có thể giúp bạn chủ động giải quyết chúng và xây dựng các giải pháp mạnh mẽ hơn YOLOv8 mô hình. Sau đây là một số cạm bẫy cần chú ý và mẹo để tránh chúng:

  • Bỏ qua việc tuân thủ các quy định : Không tuân thủ các quy định về AI có thể dẫn đến những rắc rối pháp lý và làm tổn hại đến danh tiếng của bạn. Hãy cập nhật các luật có liên quan, như GDPR về bảo vệ dữ liệu và đảm bảo các mô hình của bạn tuân thủ bằng cách tiến hành kiểm tra tuân thủ thường xuyên.
  • Kiểm tra không đầy đủ trong điều kiện thực tế : Các mô hình không được kiểm tra trong điều kiện thực tế có thể không thành công khi triển khai. Mô phỏng các tình huống thực tế trong quá trình kiểm tra để xác định sớm các vấn đề tiềm ẩn và điều chỉnh mô hình của bạn để dễ tiếp cận hơn với tất cả mọi người.
  • Thiếu các biện pháp giải trình : Nếu không rõ ai chịu trách nhiệm cho các bộ phận khác nhau của hệ thống AI, sẽ khó xử lý lỗi, thành kiến hoặc sử dụng sai mục đích, điều này có thể dẫn đến các vấn đề nghiêm trọng hơn. Thiết lập trách nhiệm giải trình rõ ràng đối với kết quả AI bằng cách xác định vai trò và trách nhiệm trong nhóm của bạn và thiết lập các quy trình để giải quyết các vấn đề khi chúng phát sinh.
  • Không xem xét tác động môi trường : Các mô hình AI có thể có tác động nghiêm trọng đến môi trường. Ví dụ, việc triển khai quy mô lớn có thể yêu cầu sự hỗ trợ của các trung tâm dữ liệu tiêu thụ lượng năng lượng lớn để xử lý các phép tính chuyên sâu. Bạn có thể tối ưu hóa các mô hình của mình để tiết kiệm năng lượng và xem xét dấu chân môi trường của các quy trình đào tạo và triển khai của mình.
  • Bỏ qua sự nhạy cảm về văn hóa : Các mô hình được đào tạo mà không xem xét đến sự khác biệt về văn hóa có thể không phù hợp hoặc gây khó chịu trong một số bối cảnh nhất định. Đảm bảo giải pháp AI của bạn tôn trọng các chuẩn mực và giá trị văn hóa bằng cách đưa các quan điểm văn hóa đa dạng vào dữ liệu và quy trình phát triển của bạn.
Hình 4. Nguyên tắc và yêu cầu đạo đức.

Xây dựng các giải pháp đạo đức và an toàn với YOLOv8 

Xây dựng các giải pháp AI với YOLOv8 cung cấp nhiều khả năng thú vị, nhưng điều quan trọng là phải ghi nhớ đạo đức và bảo mật. Bằng cách tập trung vào sự công bằng, quyền riêng tư, minh bạch và tuân thủ đúng các hướng dẫn, chúng ta có thể tạo ra các mô hình hoạt động tốt và tôn trọng quyền của mọi người. Thật dễ dàng để bỏ qua những thứ như thiên vị dữ liệu, bảo vệ quyền riêng tư hoặc đảm bảo mọi người đều có thể sử dụng hệ thống, nhưng dành thời gian để giải quyết những vấn đề này có thể là một bước ngoặt. Khi chúng ta tiếp tục mở rộng ranh giới về những gì AI có thể làm với các công cụ như YOLOv8 , hãy nhớ đến khía cạnh con người của công nghệ. Bằng cách chu đáo và chủ động, chúng ta có thể xây dựng những cải tiến AI có trách nhiệm và tiên tiến!

Hãy chắc chắn tham gia cộng đồng của chúng tôi để cập nhật thông tin mới nhất về AI! Ngoài ra, bạn có thể tìm hiểu thêm về AI bằng cách truy cập kho lưu trữ GitHub của chúng tôi và khám phá các giải pháp của chúng tôi trong nhiều lĩnh vực như sản xuấttự lái .

Logo FacebookBiểu trưng TwitterBiểu trưng LinkedInBiểu tượng sao chép liên kết

Đọc thêm trong danh mục này

Hãy xây dựng tương lai
của AI cùng nhau!

Bắt đầu hành trình của bạn với tương lai của machine learning