abogacía ® es un medio comprometido con la consolidación de un espacio democrático para la difusión y la divulgación de ideas y opiniones. ¡Suscríbete!

Inteligencia artificial sesgada: Empresas, derechos humanos y Estado

El desarrollo de la inteligencia artificial se ha visto directamente afectado por los prejuicios de los programadores de los algoritmos a través los cuales funciona esta tecnología. ¿Qué responsabilidad tienen las empresas que utilizan estas tecnologías en relación con la violación de los derechos humanos por parte de la inteligencia artificial? ¿Cuáles son las obligaciones del Estado sobre el tema? Andrea Harris Heredia responde a estas cuestiones.


La inteligencia artificial (IA) ha encabezado el crecimiento tecnológico durante los últimos años. De acuerdo con Klaus Schwab, presidente ejecutivo del Foro Económico Mundial, nos encontramos en una Cuarta Revolución Industrial caracterizada por una completa automatización de los procesos de producción como consecuencia de la IA, la tecnología digital y el internet de las cosas.1

Sin lugar a dudas, las revoluciones industriales han aportado de manera positiva al funcionamiento de las sociedades alrededor del mundo. No obstante, consideramos importante reconocer el hecho de que esas revoluciones también han desencadenado problemas políticos, sociales y económicos. Como ejemplo, destacan las violaciones a los derechos laborales y a los derechos de la infancia, así como las afectaciones al derecho a un medio ambiente sano. La Cuarta Revolución Industrial no se exceptúa de esta realidad. 

La IA suele considerarse como una herramienta que posee la habilidad para tomar decisiones completamente objetivas, sin que medien sesgos y prejuicios. No obstante, sería incorrecto pensar en la IA como una tecnología que resolverá la desigualdad social, pues debemos recordar que la misma está compuesta por bases de datos y algoritmos creados y programados por seres humanos. Es decir, se trata de una creación humana, por lo que los algoritmos suelen reflejar el sesgo personal de su autor y reproducir los prejuicios y los estereotipos que existen en la sociedad.2 Hay estudios que demuestran que la efectividad de la tecnología de reconocimiento facial es menor cuando se trata de personas de piel más oscura, en especial si se trata de mujeres de piel oscura.3 Lo mismo sucede con el uso de la IA para traducir y moderar contenidos en línea, pues su efectividad suele ser menor cuando se trata de idiomas subrepresentados, como el bengalí o el indonesio, y mayor cuando se trata de idiomas como el inglés, el español, el francés, el alemán y el chino.4

Los principales sistemas de IA son desarrollados por un pequeño sector de élite occidental, en el que predomina la presencia de hombres blancos y existe un historial de problemas de discriminación, exclusión y acoso sexual.

REGÍSTRATE PARA SEGUIR LEYENDO

Continúa disfrutando de nuestros contenidos sin interrupciones. Si ya tienes una cuenta con nosotros, inicia sesión.

  1. Klaus Schwab, The Fourth Industrial Revolution, World Economic Forum, Suiza, 2016, pp. 7-10.[]
  2. Christina Dinar, “The State of Content Moderation for the LGBTIQA+ Community and the Role of the EU Digital Services Act”, Heinrich Boll Stiftung, junio de 2021, p. 6.[]
  3. Thomas Davidson et al., “Racial Bias in Hate Speech and Abusive Language Detection”, Proceedings of the Third Workshop on Abusive Language Online, Florencia, Italia, 2019, p. 2.[]
  4. Natasha Duarte et al., “Mixed Messages? The Limits of Automated Social Media Content Analysis”, Proceedings of Machine Learning Research, Conference on Fairness, Accountability and Transparency, 2018, p. 7.[]

Javier Coello Trejo: En México no puede haber justicia selectiva

"El fiscal de hierro", como llamó el presidente José López Portillo al abogado Javier Coello Trejo —reconocido por su labor que lo llevó a encarcelar a más de 1,200 funcionarios, ex funcionarios y empresarios involucrados en diversos delitos, entre...

Newsletter

Recibe contenidos e información adicional en tu bandeja de entrada.

.