Glosario

Prejuicios en la IA

Descubre cómo identificar, mitigar y prevenir el sesgo en los sistemas de IA con estrategias, herramientas y ejemplos del mundo real para el desarrollo ético de la IA.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El sesgo en la Inteligencia Artificial (IA) se refiere a errores sistemáticos y repetibles dentro de un sistema de IA que dan lugar a resultados injustos, sesgados o discriminatorios, que a menudo favorecen a un grupo sobre otros basándose en características arbitrarias. Este sesgo no se origina porque el propio modelo de IA actúe maliciosamente, sino que surge cuando el modelo aprende y reproduce los valores implícitos, las desigualdades históricas o los desequilibrios estadísticos presentes en los datos de entrenamiento, el diseño de los algoritmos o las decisiones tomadas por los seres humanos que participan en su desarrollo y despliegue. Abordar el sesgo de la IA es fundamental para el desarrollo ético de la IA, ya que tiene un impacto crítico en el rendimiento del modelo, la fiabilidad y la confianza pública, especialmente en dominios sensibles como la visión por ordenador (VC).

Fuentes del sesgo de la IA

El sesgo de la IA no es una propiedad inherente a la IA, sino que se deriva de los procesos humanos y de los datos utilizados para construir estos sistemas. Comprender sus orígenes es clave para mitigarlo:

  • Sesgo del conjunto de datos: Es la fuente más común, y surge cuando los datos utilizados para el entrenamiento no son representativos de la población del mundo real o del contexto en el que se desplegará el modelo. Esto incluye el sesgo histórico (que refleja los prejuicios sociales del pasado), el sesgo de medición (recogida de datos incoherente entre grupos), el sesgo de representación (submuestreo de ciertos grupos) y problemas en el etiquetado de los datos cuando las anotaciones reflejan puntos de vista subjetivos. Comprender el impacto del sesgo del conjunto de datos es crucial para la IA de visión.
  • Sesgo algorítmico: El propio algoritmo puede introducir un sesgo, como cuando un algoritmo optimiza una métrica que inadvertidamente perjudica a un grupo específico, o cuando el diseño del modelo hace suposiciones que no son válidas para todos. Por ejemplo, ciertas opciones de optimización pueden dar prioridad a la precisión global a expensas de la equidad para los subgrupos minoritarios.
  • Prejuicios humanos: Los prejuicios conscientes o inconscientes de los propios desarrolladores y usuarios pueden influir en el diseño de los modelos, la selección de los datos, la interpretación de los resultados y las decisiones de despliegue, incorporando la injusticia al ciclo de vida de la IA.

Ejemplos del mundo real

El sesgo en la IA puede manifestarse en diversas aplicaciones, a veces con graves consecuencias:

  • Sistemas de reconocimientofacial: Numerosos estudios, incluidas pruebas exhaustivas realizadas por el NIST, han demostrado que algunas tecnologías de reconocimiento facial presentan índices de precisión significativamente más bajos para personas de determinados grupos demográficos (por ejemplo, mujeres de piel más oscura) que para otras (por ejemplo, hombres de piel más clara). Esta disparidad suele deberse a conjuntos de datos de entrenamiento no representativos y puede dar lugar a identificaciones erróneas y a un trato desigual en aplicaciones que van desde el desbloqueo de teléfonos a la aplicación de la ley. Organizaciones como la Liga de la Justicia Algorítmica trabajan activamente para poner de relieve y combatir estos sesgos.
  • La IA en la sanidad: Los modelos de IA utilizados para tareas como el análisis de imágenes médicas o la predicción del riesgo de los pacientes pueden heredar sesgos de los datos sanitarios históricos. Si una herramienta de diagnóstico se entrena principalmente con datos de un grupo de población, podría funcionar con menos precisión para los grupos infrarrepresentados, lo que podría dar lugar a diagnósticos tardíos o recomendaciones de tratamiento inadecuadas. La investigación destaca los riesgos de sesgo en los algoritmos clínicos si no se tiene en cuenta activamente la imparcialidad.

Distinguir el Sesgo en la Inteligencia Artificial de los Conceptos Relacionados

Es importante diferenciar el Sesgo en la IA, que se refiere principalmente a la imparcialidad y las implicaciones éticas, de otros conceptos relacionados en el aprendizaje automático (AM):

  • Sesgo del conjunto de datos: Aunque es una fuente primaria de sesgo de la IA, el sesgo del conjunto de datos se refiere específicamente a la naturaleza no representativa de los propios datos. El sesgo de la IA es el resultado más amplio de la injusticia sistemática, que puede derivarse del sesgo del conjunto de datos, de elecciones algorítmicas o de factores humanos.
  • Sesgo algorítmico: Se refiere específicamente al sesgo introducido por el proceso de diseño u optimización del modelo, en contraposición al sesgo originado únicamente por los datos. Es otra fuente potencial que contribuye al sesgo general de la IA.
  • Compensación Sesgo-Varianza: Se trata de un concepto estadístico básico en el ML que describe la tensión entre la simplicidad del modelo (alto sesgo, que puede llevar a un ajuste insuficiente) y la complejidad del modelo (alta varianza, que puede llevar a un ajuste excesivo). Aunque aquí se utiliza el término "sesgo", se refiere al error del modelo debido a suposiciones demasiado simplistas, distinto de las implicaciones éticas o de equidad del sesgo de la IA.

Abordar los prejuicios de la Inteligencia Artificial

Mitigar el sesgo de la IA es un proceso continuo que requiere un enfoque polifacético a lo largo del ciclo de vida de desarrollo de la IA:

  • Curación y aumento de datos: Recopila activamente conjuntos de datos diversos y representativos. Utiliza técnicas como el aumento de datos y la posible generación de datos sintéticos para equilibrar la representación de los distintos grupos. Explora recursos como la colección de conjuntos de datosUltralytics para obtener fuentes de datos diversas.
  • Métricas de equidad y auditoría: Define y mide la imparcialidad utilizando métricas adecuadas durante la evaluación del modelo. Audita periódicamente los modelos para comprobar si son parciales en los distintos subgrupos, antes y después de su despliegue.
  • Selección y modificación de algoritmos: Elige algoritmos menos propensos al sesgo o modifica los existentes para incorporar restricciones de imparcialidad.
  • Transparencia y explicabilidad: Emplea técnicas de IA explicable (XAI ) para comprender el comportamiento de los modelos e identificar posibles fuentes de sesgo. Más información sobre los conceptos XAI.
  • Marcos éticos y gobernanza: Implanta directrices éticas y estructuras de gobierno sólidas en materia de IA, haciendo referencia a marcos como el Marco de Gestión de Riesgos de la IA del NIST, para guiar el desarrollo y la implantación.

Plataformas como Ultralytics HUB proporcionan herramientas que apoyan el desarrollo de sistemas de IA más justos al permitir una gestión cuidadosa del conjunto de datos, facilitar el entrenamiento de modelos personalizados y permitir la supervisión de Ultralytics YOLO de Ultralytics. La concienciación y la incorporación de principios de Equidad en la IA (a menudo debatidos en foros como la conferencia ACM FAccT) son cruciales para abordar el desarrollo responsable de la IA y crear tecnología que beneficie a la sociedad de forma equitativa.

Leer todo