Cheque verde
Enlace copiado en el portapapeles

Abordar la IA responsable con Ultralytics YOLOv8

Aprende a desarrollar soluciones de IA responsables con Ultralytics YOLOv8 siguiendo las mejores prácticas éticas y de seguridad y dando prioridad a las innovaciones de IA justas y conformes.

El futuro de la IA está en manos de desarrolladores, entusiastas de la tecnología, líderes empresariales y otras partes interesadas que utilizan herramientas y modelos como Ultralytics YOLOv8 para impulsar la innovación. Sin embargo, crear soluciones de IA impactantes no consiste sólo en utilizar tecnología avanzada. También se trata de hacerlo de forma responsable. 

La IA responsable ha sido un tema de conversación popular en la comunidad de la IA últimamente, con cada vez más gente hablando de su importancia y compartiendo sus ideas. Desde los debates en línea hasta los actos del sector, cada vez se presta más atención a cómo podemos hacer que la IA no sólo sea potente, sino también ética. Un tema común en estas conversaciones es el énfasis en asegurarse de que todos los que contribuyen a un proyecto de IA mantienen una mentalidad centrada en la IA responsable en cada etapa. 

En este artículo, empezaremos explorando algunos acontecimientos y debates recientes relacionados con la IA responsable. A continuación, examinaremos más de cerca los desafíos éticos y de seguridad únicos que plantea el desarrollo de proyectos de visión por ordenador y cómo asegurarte de que tu trabajo es a la vez innovador y ético. Si adoptamos los principios de la IA responsable, ¡podremos crear una IA que realmente beneficie a todos!

IA responsable en 2024

En los últimos años, ha habido un notable impulso para hacer que la IA sea más ética. En 2019, sólo el 5% de las organizaciones habían establecido directrices éticas para la IA, pero en 2020, esta cifra había subido al 45%. Como consecuencia, estamos empezando a ver más noticias relacionadas con los retos y los éxitos de este cambio ético. En particular, se ha hablado mucho de la IA generativa y de cómo utilizarla de forma responsable.

En el primer trimestre de 2024, se habló mucho de Géminis, el chatbot de IA de Google, que puede generar imágenes basándose en instrucciones de texto. En concreto, Gemini se utilizó para crear imágenes que representaban a varias figuras históricas, como soldados alemanes de la II Guerra Mundial, como personas de color. El chatbot de IA se diseñó para diversificar la representación de las personas en las imágenes generadas, con el fin de ser intencionadamente inclusivo. Sin embargo, en ocasiones, el sistema malinterpretó determinados contextos, lo que dio lugar a imágenes que se consideraron inexactas e inapropiadas.

Fig.1 Una imagen generada por Géminis.

GooglePrabhakar Raghavan, jefe de búsqueda de Google, explicó en una entrada de blog que la IA se volvió demasiado cautelosa e incluso se negó a generar imágenes en respuesta a indicaciones neutras. Aunque la función de generación de imágenes de Gemini se diseñó para promover la diversidad y la inclusión en los contenidos visuales, suscita preocupación la exactitud de las representaciones históricas y las implicaciones más amplias de la parcialidad y el desarrollo responsable de la IA. Existe un debate en curso sobre cómo equilibrar el objetivo de promover representaciones diversas en los contenidos generados por IA con la necesidad de exactitud y salvaguardias contra la tergiversación.

Historias como ésta dejan claro que, a medida que la IA sigue evolucionando y se integra cada vez más en nuestra vida cotidiana, las decisiones que tomen los desarrolladores y las empresas pueden tener un impacto significativo en la sociedad. En la siguiente sección, nos sumergiremos en consejos y mejores prácticas para construir y gestionar sistemas de IA de forma responsable en 2024. Tanto si estás empezando como si quieres perfeccionar tu enfoque, estas directrices te ayudarán a contribuir a un futuro de IA más responsable.

Consideraciones éticas en los proyectos de YOLOv8

Al crear soluciones de visión por ordenador con YOLOv8es importante tener en cuenta algunas consideraciones éticas clave, como la parcialidad, la imparcialidad, la privacidad, la accesibilidad y la inclusión. Veamos estos factores con un ejemplo práctico.

Fig.2 Consideraciones éticas y jurídicas en la IA.

Supongamos que estás desarrollando un sistema de vigilancia para un hospital que controla los pasillos en busca de comportamientos sospechosos. El sistema podría utilizar YOLOv8 para detectar cosas como personas que deambulan por zonas restringidas, accesos no autorizados, o incluso detectar pacientes que podrían necesitar ayuda, como los que deambulan por zonas inseguras. Analizaría las secuencias de vídeo en directo de las cámaras de seguridad de todo el hospital y enviaría alertas en tiempo real al personal de seguridad cuando ocurriera algo inusual.

Si tu modelo YOLOv8 se entrena con datos sesgados, podría acabar dirigiéndose injustamente a determinados grupos de personas en función de factores como la raza o el sexo, lo que daría lugar a falsas alertas o incluso a discriminación. Para evitarlo, es esencial equilibrar tu conjunto de datos y utilizar técnicas para detectar y corregir cualquier sesgo, como:

  • Aumento de datos: Aumentar el conjunto de datos con ejemplos diversos garantiza una representación equilibrada de todos los grupos.
  • Remuestreo: Ajustar la frecuencia de las clases infrarrepresentadas en los datos de entrenamiento para equilibrar el conjunto de datos.
  • Algoritmos conscientes de la imparcialidad: Implementar algoritmos diseñados específicamente para reducir el sesgo en las predicciones.
  • Herramientas de detección de sesgos: Utilizar herramientas que analicen las predicciones del modelo para identificar y corregir los sesgos.

La privacidad es otra gran preocupación, especialmente en entornos como los hospitales, donde hay información sensible implicada. YOLOv8 podría captar detalles personales de pacientes y personal, como sus caras o actividades. Para proteger su privacidad, puedes tomar medidas como anonimizar los datos para eliminar cualquier información identificable, obtener el consentimiento adecuado de las personas antes de utilizar sus datos, o difuminar las caras en la secuencia de vídeo. También es buena idea encriptar los datos y asegurarte de que se almacenan y transmiten de forma segura para evitar accesos no autorizados.

También es importante diseñar tu sistema para que sea accesible e inclusivo. Debes asegurarte de que funciona para todos, independientemente de sus capacidades. En un entorno hospitalario, esto significa que el sistema debe ser fácil de usar para todo el personal, los pacientes y los visitantes, incluidos aquellos con discapacidades u otras necesidades de accesibilidad. Contar con un equipo diverso puede suponer una gran diferencia en este sentido. Los miembros del equipo de diferentes procedencias pueden ofrecer nuevas perspectivas y ayudar a identificar posibles problemas que podrían pasarse por alto. Aportando diversas perspectivas, es más probable que construyas un sistema fácil de usar y accesible para un amplio abanico de personas.

Buenas prácticas de seguridad para YOLOv8

Al desplegar YOLOv8 en aplicaciones del mundo real, es importante dar prioridad a la seguridad para proteger tanto el modelo como los datos que utiliza. Tomemos, por ejemplo, un sistema de gestión de colas en un aeropuerto que utilice la visión por ordenador con YOLOv8 para controlar el flujo de pasajeros. YOLOv8 puede utilizarse para seguir el movimiento de los pasajeros a través de los controles de seguridad, las puertas de embarque y otras zonas para ayudar a identificar los puntos de congestión y optimizar el flujo de personas para reducir los tiempos de espera. El sistema podría utilizar cámaras colocadas estratégicamente por todo el aeropuerto para captar imágenes de vídeo en directo, con YOLOv8 detectando y contando pasajeros en tiempo real. La información de este sistema puede utilizarse para alertar al personal cuando las colas sean demasiado largas, abrir automáticamente nuevos puntos de control o ajustar los niveles de personal para que las operaciones sean más fluidas.

Fig.3 Gestión de colas en la taquilla de un aeropuerto mediante Ultralytics YOLOv8 .

En este contexto, es fundamental proteger el modelo YOLOv8 contra ataques y manipulaciones. Esto puede hacerse encriptando los archivos del modelo para que los usuarios no autorizados no puedan acceder a ellos ni alterarlos fácilmente. Puedes desplegar el modelo en servidores seguros y establecer controles de acceso para evitar su manipulación. Las comprobaciones y auditorías de seguridad periódicas pueden ayudar a detectar cualquier vulnerabilidad y mantener el sistema seguro. Se pueden utilizar métodos similares para proteger datos sensibles, como las imágenes de vídeo de los pasajeros.

Para reforzar aún más la seguridad, se pueden integrar en el proceso de desarrollo herramientas como Snyk, GitHub CodeQL y Dependabot. Snyk ayuda a identificar y corregir vulnerabilidades en el código y las dependencias, GitHub CodeQL analiza el código en busca de problemas de seguridad, y Dependabot mantiene las dependencias actualizadas con los últimos parches de seguridad. En Ultralytics se han implementado estas herramientas para detectar y prevenir vulnerabilidades de seguridad.

Errores comunes y cómo evitarlos

A pesar de las buenas intenciones y de seguir las mejores prácticas, pueden producirse fallos que dejen lagunas en tus soluciones de IA, sobre todo en lo que se refiere a la ética y la seguridad. Ser consciente de estos problemas comunes puede ayudarte a abordarlos de forma proactiva y a construir modelos YOLOv8 más sólidos. He aquí algunos escollos que debes vigilar y consejos para evitarlos:

  • Descuidar el cumplimiento de la normativa: No cumplir la normativa sobre IA puede provocar problemas legales y dañar tu reputación. Mantente al día de las leyes pertinentes, como la GDPR para la protección de datos, y asegúrate de que tus modelos la cumplen realizando comprobaciones periódicas de cumplimiento.
  • Pruebas inadecuadas en condiciones reales: Los modelos que no se prueban en condiciones reales pueden fallar al desplegarse. Simula situaciones límite del mundo real durante las pruebas para identificar posibles problemas con antelación y ajustar tus modelos para que sean más accesibles para todos.
  • Falta de medidas de responsabilidad: Si no está claro quién es responsable de las distintas partes de un sistema de IA, puede ser difícil gestionar errores, sesgos o usos indebidos, que pueden dar lugar a problemas más importantes. Establece una rendición de cuentas clara sobre los resultados de la IA definiendo funciones y responsabilidades dentro de tu equipo y estableciendo procesos para abordar los problemas cuando surjan.
  • No tener en cuenta el impacto medioambiental: Los modelos de IA pueden tener graves repercusiones medioambientales. Por ejemplo, los despliegues a gran escala pueden requerir el apoyo de centros de datos que consumen grandes cantidades de energía para manejar cálculos intensivos. Puedes optimizar tus modelos para que sean eficientes energéticamente y tener en cuenta la huella medioambiental de tus procesos de formación y despliegue.
  • No tener en cuenta la sensibilidad cultural: Los modelos entrenados sin tener en cuenta las diferencias culturales pueden resultar inapropiados u ofensivos en determinados contextos. Asegúrate de que tu solución de IA respeta las normas y valores culturales incluyendo diversas perspectivas culturales en tus datos y en el proceso de desarrollo.
Fig.4 Principios y requisitos éticos.

Construir soluciones éticas y seguras con YOLOv8 

Construir soluciones de IA con YOLOv8 ofrece muchas posibilidades apasionantes, pero es vital tener en cuenta la ética y la seguridad. Centrándonos en la equidad, la privacidad, la transparencia y siguiendo las directrices adecuadas, podemos crear modelos que funcionen bien y respeten los derechos de las personas. Es fácil pasar por alto cosas como la parcialidad de los datos, la protección de la privacidad o asegurarse de que todo el mundo pueda utilizar el sistema, pero dedicar tiempo a abordar estas cuestiones puede cambiar las reglas del juego. Mientras seguimos ampliando los límites de lo que puede hacer la IA con herramientas como YOLOv8, recordemos el lado humano de la tecnología. Siendo reflexivos y proactivos, podemos crear innovaciones de IA que sean responsables y avanzadas.

No dejes de unirte a nuestra comunidad para conocer las últimas actualizaciones en IA. También puedes aprender más sobre IA visitando nuestro repositorio de GitHub y explorando nuestras soluciones en diversos campos como la fabricación y la conducción autónoma.

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático