Un estudio lo revela: ¡La IA evalúa injustamente a los alemanes orientales en las solicitudes!
El estudio de la Universidad de Ciencias Aplicadas de Múnich muestra cómo la IA perjudica a los alemanes orientales. Se destacan los problemas con las evaluaciones y los precedentes.

Un estudio lo revela: ¡La IA evalúa injustamente a los alemanes orientales en las solicitudes!
Un alarmante estudio de la Universidad de Ciencias Aplicadas de Munich encontró que la inteligencia artificial (IA) como ChatGPT califica sistemáticamente a los estados de Alemania Oriental peor que a sus homólogos de Alemania Occidental. Como describe Focus, el análisis de diferentes modelos de IA, incluidos ChatGPT 3.5 y 4, así como el LeoLM alemán, muestra serios prejuicios en la evaluación de características como el trabajo duro y el atractivo, que no se limitan sólo a estereotipos.
Estos sesgos son preocupantes, especialmente en un momento en que la IA desempeña un papel cada vez más crítico en los procesos de solicitud y las decisiones crediticias. El núcleo del problema radica en la forma en que funciona la propia IA, que sólo puede corregirse parcialmente mediante “indicaciones desestabilizadoras”. La Prof. Dra. Anna Kruspe, que investiga este tema en la Universidad de Ciencias Aplicadas de Múnich, destaca que ya se ha eliminado el 30 por ciento del sesgo político de los modelos de IA. Sin embargo, el 70 por ciento de los problemas persisten.
Riesgos para el proceso de solicitud
Una preocupación central es la desventaja estructural que enfrentan los alemanes orientales cuando solicitan empleo. Por ejemplo, los modelos de IA podrían dar evaluaciones negativas injustificadas de las trayectorias educativas y las experiencias laborales. Para contrarrestar esto, el Prof. Kruspe sugiere mencionar explícitamente en las indicaciones que no se debe tener en cuenta el origen del solicitante. Lamentablemente, esta no es una solución fiable, como demuestra en su investigación, que publicará en una conferencia sobre inteligencia artificial en 2024.
El impacto potencial es grave: si la IA continúa actuando de manera tan discriminatoria, esto podría resultar en que a los alemanes orientales se les niegue oportunidades a las que podrían tener derecho. El estudio también identifica que los sesgos algorítmicos no son sólo una cuestión de origen regional, sino que, en general, pueden afectar a todos los grupos. Estos hallazgos no sólo podrían afectar a las carreras individuales, sino también a todo el mercado laboral.
Implicaciones sociales
Pero el problema no es sólo el filtrado regional. Como informa la Fundación Böckler, la IA se utiliza cada vez más en el mundo del trabajo, donde es capaz de reforzar una discriminación profundamente arraigada. Las mujeres en profesiones dominadas por mujeres en particular podrían sufrir este efecto, ya que a menudo se les ofrecen trabajos peor remunerados cuando se utilizan sistemas basados en inteligencia artificial para la selección de personal.
Mientras tanto, el debate sobre la regulación de la IA está ganando impulso a medida que más y más voces alarmantes señalan los peligros potenciales. En el futuro, será crucial crear marcos legales y gestionar los desarrollos tecnológicos de una manera que promueva la justicia y la igualdad. Los expertos abogan por que los comités de empresa desempeñen un papel activo a la hora de controlar el uso de las nuevas tecnologías para detectar posibles discriminaciones y garantizar que el progreso no se produzca a expensas de la justicia social.
Los resultados de este estudio arrojan luz sobre el potencial actual que tiene la inteligencia artificial en nuestra sociedad y nos desafían a examinar críticamente cómo integramos estas tecnologías en un futuro justo. Sólo nos queda esperar no perdernos una aventura importante, porque el progreso debería beneficiar a todos.