Cheque verde
Enlace copiado en el portapapeles

Comprender el sesgo de la IA y el sesgo del conjunto de datos en los sistemas de IA de visión

Aprende cómo el sesgo del conjunto de datos afecta a los modelos de visión por ordenador y cómo Ultralytics YOLO11 ayuda a reducir el sesgo con un aumento inteligente y herramientas de formación flexibles.

Los modelos de inteligencia artificial (IA) están cambiando la forma en que resolvemos los problemas, pero no son perfectos. Desde los coches autoconducidos hasta las herramientas de diagnóstico en sanidad, confiamos en la IA para interpretar los datos y tomar decisiones. ¿Qué ocurre cuando los propios datos son defectuosos?

El sesgo en la IA se refiere a los patrones de incoherencia que se desarrollan en los modelos, a menudo sin que nadie se dé cuenta. Estos sesgos pueden hacer que los modelos hagan predicciones inexactas, incoherentes o incluso perjudiciales. En la visión por ordenador, el sesgo suele remontarse a una fuente clave: el conjunto de datos. Si los datos utilizados para entrenar el modelo están desequilibrados o no son representativos, el modelo reflejará esas lagunas.

Veamos más de cerca cómo se forma el sesgo del conjunto de datos, cómo afecta a los modelos de visión por ordenador y los pasos que pueden dar los desarrolladores para detectarlo y evitarlo. También mostraremos cómo modelos como Ultralytics YOLO11 pueden ayudar a construir sistemas de IA más justos que generalicen mejor, es decir, que funcionen bien con datos nuevos y desconocidos y sirvan a todos por igual.

¿Qué es el sesgo de la IA y por qué es importante?

El sesgo de la IA se refiere a errores constantes en un sistema de IA que dan lugar a resultados sesgados o inexactos. En términos más sencillos, el modelo empieza a favorecer un tipo de entrada visual en detrimento de otros, lo que afecta a la imparcialidad del modelo, no porque funcione mejor, sino debido a cómo fue entrenado.

Esto puede ser especialmente común en visión por ordenador, donde los modelos aprenden de los datos visuales. Si un conjunto de datos incluye mayoritariamente un tipo de objeto, escena o persona, el modelo aprende patrones que sólo funcionan bien para esos casos.

Imagina un modelo entrenado principalmente con imágenes de tráfico de grandes ciudades. Si se implanta en una zona rural, podría clasificar erróneamente trazados de carreteras inusuales o no detectar tipos de vehículos que nunca ha visto antes. Es el sesgo de la IA en acción. Da lugar a una menor precisión y a una generalización limitada, que se refiere a la capacidad de un modelo para funcionar bien con entradas nuevas o diversas.

En aplicaciones en las que la precisión es esencial, como la sanidad o la seguridad, estos errores no sólo son frustrantes, sino que pueden ser peligrosos. Abordar el sesgo tiene que ver con el rendimiento, la fiabilidad y la seguridad.

Cómo influye el sesgo del conjunto de datos en el comportamiento del modelo

Cuando hablamos de sesgo del conjunto de datos, nos referimos al desequilibrio o limitación de los datos utilizados para entrenar un modelo. El sesgo del conjunto de datos se produce cuando los datos de entrenamiento no reflejan adecuadamente la diversidad del mundo real que se pretende modelar.

Los modelos de visión por ordenador no entienden el mundo. Entienden patrones. Si las únicas imágenes de perros que ven son golden retrievers en patios traseros, puede que no reconozcan a un husky en un sendero nevado.

Fig. 1. La reponderación de los datos fuente ayuda a conseguir una mayor precisión del modelo.

Esto pone de manifiesto uno de los principales retos causados por el sesgo del conjunto de datos. El modelo construye su comprensión basándose en lo que se le muestra. Si esos datos de entrenamiento no reflejan la variedad del mundo real, el comportamiento del modelo se vuelve estrecho y menos eficaz en condiciones desconocidas.

Los clasificadores de imágenes suelen funcionar mucho peor cuando se prueban con un conjunto de datos distinto al que se les entrenó, aunque ambos conjuntos de datos se hayan creado para la misma tarea. Pequeños cambios en la iluminación, los fondos o los ángulos de la cámara pueden provocar notables caídas en la precisión. Esto demuestra la facilidad con que el sesgo del conjunto de datos puede afectar a la capacidad de generalización de un modelo.

No son casos extremos. Son señales de que tu canalización de datos es tan importante como la arquitectura de tu modelo.

Tipos de sesgo en los datos de entrenamiento de la IA

Los sesgos pueden aparecer en el proceso de desarrollo de forma sutil, a menudo durante la recogida, el etiquetado o la curación de los datos. A continuación se indican tres tipos principales de sesgo que pueden afectar a tus datos de entrenamiento:

Sesgo de selección

El sesgo de selección puede producirse cuando el conjunto de datos no representa la variedad que se ve en el mundo real. Si un modelo de detección de peatones se entrena sólo con imágenes diurnas claras, no funcionará bien de noche o con niebla. Por tanto, el proceso de selección ha pasado por alto casos cruciales.

Fig. 2. Representación visual del sesgo de selección cuando sólo se elige un subconjunto no diverso.

Este sesgo se produce cuando el conjunto de datos no capta toda la gama de escenarios del mundo real debido a cómo se recogieron los datos. Por ejemplo, un modelo de detección de peatones entrenado sólo con imágenes claras y diurnas puede fallar con niebla, nieve o poca luz. Esto suele ocurrir cuando los datos se recogen en condiciones ideales o convenientes, lo que limita la capacidad del modelo para actuar en entornos variados. Ampliar los esfuerzos de recopilación para incluir entornos más diversos ayuda a reducir este tipo de sesgo.

También puede surgir en conjuntos de datos construidos a partir de fuentes online, donde el contenido puede estar muy sesgado hacia determinadas ubicaciones, idiomas o contextos socioeconómicos. Sin un esfuerzo deliberado por diversificar el conjunto de datos, el modelo heredará estas limitaciones.

Sesgo de la etiqueta

El sesgo de etiqueta se produce cuando los anotadores humanos aplican etiquetas incorrectas o incoherentes. Una etiqueta incorrecta puede parecer inofensiva, pero si ocurre a menudo, el modelo empieza a aprender asociaciones erróneas.

Un etiquetado incoherente puede confundir al modelo durante el entrenamiento, especialmente en tareas complejas como la detección de objetos. Por ejemplo, un anotador puede etiquetar un vehículo como "coche" mientras que otro etiqueta uno similar como "camión". Estas incoherencias afectan a la capacidad del modelo para aprender patrones fiables, lo que reduce la precisión durante la inferencia.

Fig. 3. El sesgo en las canalizaciones de datos se origina en los desequilibrios del mundo real.

El sesgo de etiquetado también puede surgir de directrices de anotación poco claras o de interpretaciones diversas de los mismos datos. El establecimiento de normas de etiquetado bien documentadas y la realización de comprobaciones de control de calidad pueden reducir considerablemente estos problemas.

La formación continua de los anotadores y el uso del etiquetado por consenso, en el que varios anotadores revisan cada muestra, son dos estrategias eficaces para minimizar el sesgo de las etiquetas y mejorar la calidad del conjunto de datos.

Sesgo de representación

El sesgo de representación suele reflejar desigualdades sociales más amplias. Los datos recogidos en regiones más ricas o más conectadas pueden no captar la diversidad de las poblaciones o entornos menos representados. Abordar este sesgo requiere la inclusión intencionada de grupos y contextos pasados por alto.

El sesgo de representación se produce cuando determinados grupos o clases están infrarrepresentados en el conjunto de datos. Puede tratarse de grupos demográficos, categorías de objetos o condiciones ambientales. Si un modelo sólo ve un tono de piel, un tipo de objeto o un estilo de fondo, sus predicciones reflejarán ese desequilibrio.

Podemos observar este tipo de sesgo cuando determinados grupos o categorías se incluyen en cantidades mucho menores que otros. Esto puede sesgar las predicciones del modelo hacia los ejemplos dominantes en el conjunto de datos. Por ejemplo, un modelo de reconocimiento facial entrenado principalmente en un grupo demográfico puede tener dificultades para obtener resultados precisos en todos los usuarios. A diferencia del sesgo de selección, que está ligado a la variedad de datos, el sesgo de representación se refiere al equilibrio entre grupos.

Las auditorías de diversidad y las estrategias de ampliación de datos específicas pueden ayudar a garantizar que todos los datos demográficos y categorías relevantes estén debidamente representados en todo el conjunto de datos de formación.

Cómo detectar y mitigar el sesgo del conjunto de datos

En las implantaciones en el mundo real, el sesgo de la IA no significa sólo unas pocas predicciones incorrectas. Puede dar lugar a sistemas que funcionen bien para algunas personas, pero no para todas.

En la IA automovilística, los modelos de detección pueden funcionar de forma incoherente entre grupos de peatones, lo que lleva a resultados de seguridad inferiores para las personas infrarrepresentadas. El problema no es la intención del modelo. Son los datos visuales con los que se ha entrenado. Incluso en la agricultura, el sesgo en la detección de objetos puede significar una mala identificación de los cultivos en diferentes condiciones de iluminación o meteorológicas. Estas son consecuencias habituales del entrenamiento de modelos sobre conjuntos de datos limitados o desequilibrados. 

Para corregir el sesgo de la IA hay que saber dónde buscar. Si a tu conjunto de entrenamiento le faltan ejemplos clave o sobrerrepresenta un rango estrecho, tu modelo reflejará esas lagunas. Por eso la detección de sesgos en la IA es un paso crítico en todo proceso de desarrollo.

Fig. 4. Pasos clave para reducir el sesgo de la IA y mejorar la equidad.

Empieza por analizar tu conjunto de datos. Observa la distribución entre clases, entornos, iluminación, escalas de objetos y demografía. Si predomina una categoría, es probable que tu modelo tenga un rendimiento inferior en las demás.

A continuación, examina el rendimiento. ¿El modelo funciona peor en determinados entornos o con determinados tipos de objetos? Si es así, es un signo de sesgo aprendido, y normalmente apunta a los datos.

La evaluación a nivel de rebanada es clave. Un modelo puede tener una precisión media del 90 %, pero sólo del 60 % en un grupo o condición concretos. Sin comprobar esas rebanadas, nunca lo sabrías.

Utilizar métricas de equidad durante el entrenamiento y la evaluación es otra herramienta poderosa. Estas métricas van más allá de las puntuaciones de precisión estándar y evalúan cómo se comporta el modelo en diferentes subconjuntos de datos. Ayudan a sacar a la luz puntos ciegos que, de otro modo, podrían pasar desapercibidos.

La transparencia en la composición del conjunto de datos y en la comprobación de los modelos conduce a modelos mejores.

Mejorar la equidad mediante la diversidad y el aumento de datos

Una vez identificado el sesgo, el siguiente paso es cerrar la brecha. Una de las formas más eficaces de hacerlo es aumentar la diversidad de datos en los modelos de IA. Eso significa recoger más muestras de escenarios infrarrepresentados, ya sean imágenes médicas de diferentes poblaciones o condiciones ambientales inusuales.

Añadir más datos puede ser valioso, sobre todo cuando aumenta la diversidad. Sin embargo, mejorar la equidad también depende de recopilar el tipo adecuado de ejemplos. Éstos deben reflejar la variación del mundo real que probablemente encontrará tu modelo.

El aumento de datos es otra estrategia valiosa. Voltear, girar, ajustar la iluminación y escalar objetos puede ayudar a simular diferentes condiciones del mundo real. El aumento no sólo aumenta la variedad del conjunto de datos, sino que también ayuda a que el modelo sea más robusto a los cambios de aspecto, iluminación y contexto.

La mayoría de los canales de formación modernos incluyen el aumento por defecto, pero el uso estratégico, como centrarse en el ajuste en función de las necesidades específicas de la tarea, es lo que lo hace eficaz para la equidad.

Utilizar datos sintéticos para colmar las lagunas

Los datos sintéticos son datos generados artificialmente que imitan ejemplos del mundo real. Pueden ser una herramienta útil cuando determinados escenarios son demasiado raros o demasiado delicados para capturarlos en la naturaleza.

Por ejemplo, si estás construyendo un modelo para detectar defectos poco frecuentes en la maquinaria o infracciones de tráfico en casos límite, puedes simular esos casos utilizando datos sintéticos. Esto da a tu modelo la oportunidad de aprender de sucesos que puede que no encuentre a menudo en tu conjunto de entrenamiento.

Los estudios han descubierto que introducir datos sintéticos específicos en el entrenamiento puede reducir el sesgo del conjunto de datos y mejorar el rendimiento en todos los grupos demográficos y entornos.

Los datos sintéticos funcionan mejor cuando se emparejan con muestras del mundo real. Complementa tu conjunto de datos, no lo sustituye.

Cómo apoya YOLO11 la IA ética

Construir modelos de IA no sesgados también depende de las herramientas que utilices. YOLO11 está diseñado para ser flexible, fácil de ajustar y muy adaptable, lo que lo convierte en una herramienta idónea para reducir el sesgo de los conjuntos de datos.

YOLO11 admite técnicas avanzadas de aumento de datos mientras se entrena el modelo, lo que introduce contextos de imagen variados y ejemplos mezclados para mejorar la generalización del modelo y reducir el sobreajuste.

YOLO11 también presenta una arquitectura de columna vertebral y cuello mejorada para una extracción de rasgos más eficaz. Esta mejora aumenta la capacidad del modelo para detectar detalles finos, lo que es fundamental en situaciones poco representadas o en casos extremos, donde los modelos estándar pueden tener dificultades.

Como YOLO11 es fácil de reentrenar y desplegar en entornos de borde y en la nube, los equipos pueden identificar las deficiencias de rendimiento y actualizar rápidamente el modelo cuando se descubren sesgos sobre el terreno.

Una IA justa no es un objetivo único. Es un ciclo de evaluación, aprendizaje y ajuste. Herramientas como YOLO11 ayudan a que ese ciclo sea más rápido y productivo.

Puntos clave

El sesgo de la IA afecta a todo, desde la imparcialidad hasta el rendimiento. El sesgo de la visión por ordenador a menudo se deriva de cómo se recopilan, etiquetan y equilibran los conjuntos de datos. Afortunadamente, hay formas probadas de detectarlo y mitigarlo.

Empieza por auditar tus datos y probar el rendimiento del modelo en diferentes escenarios. Utiliza la recogida selectiva de datos, el aumento y los datos sintéticos para crear una mejor cobertura de entrenamiento.

YOLO11 respalda este flujo de trabajo facilitando el entrenamiento de modelos personalizados, la aplicación de técnicas sólidas de aumento y la respuesta rápida cuando se detectan sesgos.

Construir una IA justa no es sólo lo correcto. También es la forma de construir sistemas más inteligentes y fiables.

¡Únete a nuestra creciente comunidad! Explora nuestro repositorio GitHub para aprender más sobre IA. ¿Estás listo para iniciar tus propios proyectos de visión por ordenador? Consulta nuestras opciones de licencia. Descubre la IA en la fabricación y la IA de visión en la agricultura visitando nuestras páginas de soluciones. 

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático