Glosario

Equidad en la IA

Garantizar la equidad en la IA con modelos éticos e imparciales. Explora herramientas, estrategias y Ultralytics YOLO para soluciones de IA equitativas.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La equidad en la IA es un campo crucial dedicado a garantizar que los sistemas de inteligencia artificial funcionen de forma equitativa y no perpetúen ni amplifiquen los prejuicios sociales existentes. Implica desarrollar y desplegar modelos que eviten la discriminación de individuos o grupos basada en atributos sensibles como la raza, el sexo, la edad, la religión o la orientación sexual. A medida que los sistemas de Inteligencia Artificial (IA ) se integran cada vez más en los procesos críticos de toma de decisiones en diversos sectores, abordar la equidad es esencial para el desarrollo ético, el cumplimiento legal y la creación de confianza pública.

Comprender la equidad en la IA

La equidad en la IA es polifacética y carece de una definición única y universalmente aceptada. En su lugar, abarca diversos formalismos matemáticos y consideraciones éticas destinadas a mitigar los resultados injustos. El reto principal consiste en identificar y abordar el Sesgo en la IA, que puede tener su origen en múltiples fuentes, como datos de entrenamiento sesgados(Sesgo del Conjunto de Datos), algoritmos sesgados o contextos de despliegue defectuosos. Los sesgos históricos presentes en los datos pueden enseñar inadvertidamente a los modelos a replicar discriminaciones pasadas, mientras que el sesgo de medición puede surgir de una recogida de datos incoherente en distintos grupos. Reconocer estos escollos potenciales es el primer paso hacia la construcción de sistemas más justos. Los distintos criterios de equidad, como la paridad demográfica (que garantiza que los resultados son independientes de los atributos sensibles) o la igualdad de oportunidades (que garantiza que las tasas de verdaderos positivos son iguales en todos los grupos), ofrecen distintas formas de medir y luchar por la equidad, aunque lograr varios criterios simultáneamente puede ser un reto, como ponen de relieve las investigaciones en este campo (por ejemplo, las actas de la ACM FAccT).

Relevancia e importancia

Nunca se insistirá lo suficiente en la importancia de la justicia en la IA, dado su profundo impacto potencial sobre las personas y la sociedad. Los sistemas de IA injustos pueden dar lugar a resultados discriminatorios en áreas de alto riesgo como la contratación, las solicitudes de préstamos, la justicia penal y la IA en la asistencia sanitaria, negando potencialmente oportunidades o servicios esenciales a determinados grupos. Garantizar la imparcialidad no es sólo una consideración ética, sino a menudo un requisito legal, con normativas que exigen cada vez más responsabilidad y no discriminación en las aplicaciones de IA (véase el Marco de Gestión de Riesgos de la IA del NIST). Abordar la equidad ayuda a prevenir daños, promueve la justicia social y fomenta la confianza en las tecnologías de IA, alentando su adopción responsable. Esto se alinea con los principios más amplios de la Ética de la IA, que abarcan la imparcialidad, la transparencia, la responsabilidad y la privacidad.

Aplicaciones de la equidad en la IA

Se están realizando esfuerzos para integrar la equidad en numerosas aplicaciones de la IA. He aquí dos ejemplos:

  • Equidad en las herramientas de contratación: La IA se utiliza para filtrar currículos y predecir el éxito de los candidatos. Si se entrena predominantemente con datos históricos que reflejen sesgos de contratación pasados (por ejemplo, favoreciendo a candidatos de universidades o grupos demográficos específicos), la IA podría perjudicar injustamente a candidatos cualificados de grupos infrarrepresentados. Las empresas están desarrollando algoritmos que tienen en cuenta la imparcialidad y herramientas de auditoría, como AI Fairness 360 de IBM, para detectar y mitigar esos sesgos, a menudo utilizando técnicas como volver a ponderar los puntos de datos o añadir restricciones de imparcialidad durante el entrenamiento del modelo.
  • Equidad en el reconocimiento facial: Los sistemas de reconocimiento facial han mostrado disparidades de precisión entre los distintos grupos demográficos, y a menudo obtienen resultados menos precisos en el caso de personas con tonos de piel más oscuros o mujeres. Esto puede tener graves consecuencias en aplicaciones que van desde la verificación de la identidad a la aplicación de la ley. Organizaciones de investigación como la Liga de la Justicia Algorítmica han puesto de relieve estos problemas, impulsando los esfuerzos para crear conjuntos de datos de entrenamiento más diversos y desarrollar modelos que muestren un rendimiento más coherente en todas las poblaciones. Técnicas como el aumento de datos y el uso de conjuntos de datos de referencia más inclusivos son pasos cruciales.

Distinguir la equidad de los conceptos relacionados

Aunque está estrechamente relacionada, la imparcialidad en la IA difiere de los conceptos adyacentes:

  • Ética de la IA: Se trata de un campo más amplio relativo a los principios morales y las directrices para el desarrollo y el uso de la IA, incluidas la imparcialidad, la responsabilidad, la transparencia, la privacidad y la seguridad. La equidad es un componente fundamental de la ética de la IA.
  • Sesgo Algorítmico: Se refiere específicamente a los errores sistemáticos y repetibles de un sistema de IA que crean resultados injustos. La imparcialidad en la IA es el esfuerzo proactivo para identificar, medir y mitigar el sesgo algorítmico.
  • IA explicable (XAI): La XAI se centra en hacer que las decisiones de la IA sean comprensibles para los humanos. Aunque la XAI puede ayudar a identificar posibles problemas de imparcialidad al revelar cómo funciona un modelo, no garantiza intrínsecamente la imparcialidad. Sin embargo, la transparencia a través de la XAI suele ser esencial para evaluar y garantizar la imparcialidad.

Lograr la equidad

Lograr la equidad requiere una combinación de enfoques técnicos y procedimentales a lo largo del ciclo de vida de la IA. Esto incluye una cuidadosa recopilación y anotación de datos, el uso de conjuntos de datos diversos y representativos, el empleo de algoritmos de aprendizaje automático que tengan en cuenta la imparcialidad, pruebas rigurosas y evaluación de modelos utilizando métricas de imparcialidad adecuadas, y una supervisión continua después de la implantación. Herramientas como la What-If Tool deGoogle permiten a los profesionales explorar el comportamiento de los modelos en distintos segmentos de datos. Plataformas como Ultralytics HUB facilitan la formación y gestión de modelos personalizados, permitiendo a los usuarios aplicar técnicas como el aumento de datos y evaluar modelos como Ultralytics YOLO11 en busca de disparidades de rendimiento entre distintos grupos, apoyando el desarrollo de soluciones de visión computerizada más equitativas.

Leer todo