Algunos estudios han encontrado que los algoritmos de inteligencia artificial utilizados en los procesos de selección pueden tener sesgos y preferencias hacia ciertos grupos de personas, como hombres, blancos y jóvenes. Esto se debe a que los algoritmos se entrenan con datos históricos que reflejan los sesgos y prejuicios de la sociedad en la que se crearon.

Un primer sesgo es  de la selección de datos. La IA se entrena utilizando datos históricos, y si esos datos contienen sesgos, la IA también los tendrá. Por ejemplo, si una empresa solo ha contratado hombres para un determinado puesto en el pasado, la IA puede llegar a la conclusión errónea de que solo los hombres son aptos para ese puesto.

Otro sesgo común es el sesgo de atributos. La IA puede hacer suposiciones sobre las cualidades necesarias para un determinado puesto y, si esas suposiciones se basan en estereotipos, pueden excluir a ciertos candidatos. Por ejemplo, la IA puede asumir que una enfermera debe ser una mujer, lo que excluye a los candidatos masculinos que podrían ser igualmente capaces.

También existe el sesgo de confirmación, en el que la IA puede buscar información que confirme sus suposiciones y pasar por alto información que las contradiga. Por ejemplo, si la IA asume que los candidatos con nombres anglosajones son más competentes, puede pasar por alto a los candidatos con nombres que suenen étnicos.

Además, existe el sesgo de feedback, en el que la IA puede aprender de los resultados de sus propias decisiones y perpetuar los sesgos existentes. Por ejemplo, si la IA decide que los candidatos con títulos universitarios de ciertas universidades son más aptos, puede perpetuar la idea de que solo los candidatos con títulos universitarios de ciertas credenciales son válidos.

Las empresas tecnológicas están trabajando en la implementación de políticas y medidas para mitigar estos sesgos y estas son algunas de las mejoras que proponen:

  • Diversidad en los datos: utilizar conjuntos de datos más diversos y representativos de la población
  • Técnicas de desviación cero: estas técnicas buscan minimizar la discriminación y el impacto en los grupos minoritarios, a través de ajustes en los resultados que generan los algoritmos.
  • Transparencia en los algoritmos: para poder identificar y corregir los sesgos, es importante tener acceso a la lógica y el funcionamiento interno de los algoritmos.
  • Evaluación constante: realiza una evaluación constante de los algoritmos para detectar posibles sesgos y corregirlos.
  • Involucrar a expertos en ética y derechos humanos para el diseño y desarrollo de algoritmos más justos

No solo en los procesos de selección encontramos sesgos, también en los filtros de belleza de Instagram y Tik Tok. Un estudio de la Fundación Ellis de Alicante , dedicado a estudiar la inteligencia artificial aplicada a las personas para que tenga un impacto social positivo, concluye que estos algoritmos de “embellecimiento” blanquean las pieles. Los filtros de Instagram, Tik Tok, e incluso los que usamos en una videoconferencia, blanquean las pieles del usuario, incluso las que ya son blancas. Para el “canon  de belleza” de estas Inteligencias Artificiales, las “caras embellecidas” son las caras blancas.

No cabe duda de que hay que trabajar para desarrollar la IA de manera responsable y ética. Conseguir una IA  como Steve Jobs la imaginó: una máquina con potencial para ser “el próximo Aristóteles”. Una máquina que captura el espíritu , principios o formas de ver el mundo de una personas, como el filósofo, que ante una situación concreta se le pudiera preguntar, ¿Qué habría hecho Aristóteles?