https://doi.org/10.5281/zenodo.14927746

 

CIENCIAS SOCIALES

ARTICULO DE INVESTIGACIÓN

 

Sesgos de género en la selección laboral con inteligencia artificial: desafíos y soluciones


Gender biases in job selection with artificial intelligence: challenges and solutions

 

Claudia Lorena Morffi-Collado

lorenamorffi91@gmail.com

Universidad Pablo de Olavide, Sevilla, España

 https://orcid.org/0000-0002-0556-6578

 

María Esther Torres-Maritan

mesther@fpca.fgr.gob.cu

Fiscalía Provincial de Ciego de Ávila, Fiscalía General de la República, Ciego de Ávila, Ciego de Ávila, Cuba

https://orcid.org/0009-0007-7767-1696

 

 

 

 

Recibido: 15/12/2024

Revisado: 28/12/2024

Aprobado: 30/12/2024

Publicado:15/01/2025


 

 

RESUMEN

El presente artículo aborda la inadecuación de los marcos legales frente a la integración creciente de herramientas informáticas en empresas, con un enfoque específico en los procesos de selección de personal mediante inteligencia artificial (IA). El objetivo general de la investigación es analizar la discriminación de género, particularmente hacia las mujeres, en estos procesos automatizados. Se evidencia la necesidad de establecer límites a la libertad empresarial en el uso de tecnologías que podrían perpetuar sesgos y estereotipos de género. El estudio ofrece una contribución significativa a la comprensión crítica de los desafíos asociados con la IA en procesos de selección laboral.

Palabras claves: Legislación; Inteligencia artificial; Discriminación; Género; Selección laboral. (Tesauro UNESCO)

 

ABSTRACT

This article addresses the inadequacy of legal frameworks in the face of the growing integration of computer tools in companies, with a specific focus on personnel selection processes using artificial intelligence (AI). The primary objective is to analyze gender discrimination, particularly towards women, in these automated processes. The need to establish limits on business freedom in the use of technologies that could perpetuate gender biases and stereotypes is evident. The study offers a significant contribution to the critical understanding of the challenges associated with AI in job selection processes.

Keywords: Legislation; Artificial intelligence; Discrimination; Gender; Job selection. (UNESCO Thesaurus).


 

INTRODUCCIÓN

Los avances en las Tecnologías de la Información y la Comunicación, conocidas como TIC, han dado origen a una nueva y revolucionaria era que se conoce como la Cuarta Revolución Industrial. A diferencia de las revoluciones anteriores, esta fase de cambio sistémico afecta en su totalidad a los cimientos y el funcionamiento de la vida política, económica y social (Robles Carrillo, 2020). En esta evolución, destacan múltiples elementos, como el Internet de las Cosas, los servicios en la nube, la tecnología Blockchain, el análisis de grandes volúmenes de datos (Big Data), las redes 5G y la computación cuántica. Sin embargo, uno de los componentes de las TIC que está atrayendo una atención especial debido a su alcance, naturaleza y potencial es la Inteligencia Artificial (IA en lo adelante).

La IA es el paradigma dominante en la actualidad. Aunque sus avances en los últimos cinco años son asombrosos, el término "IA" tiene una historia de evolución que se remonta a finales del siglo pasado, específicamente a 1956 cuando John McCarthy acuñó dicho término (Gómez Rodríguez, 2022).

El desarrollo de la IA plantea lo que posiblemente sea el desafío científico más monumental de la historia, ya que aspira a igualar e incluso superar la inteligencia humana. Este fenómeno tiene implicaciones en diversas disciplinas, como la antropología, la filosofía, la sociología, la política, la economía, las ciencias matemáticas y físicas, las ingenierías, así como el Derecho (Araya Paz, 2020).

Desde una perspectiva científica, la IA plantea una problemática compleja. En primer lugar, no existe una definición ampliamente aceptada, ya que el propio concepto es objeto de debate. La expresión "inteligencia" ha generado controversia en la doctrina, que prefiere utilizar términos más precisos como "optimización" (Brundage, 2018).

A pesar de las numerosas contribuciones realizadas desde la ciencia jurídica al estudio de la IA, la noción de que existe un vacío legal o la sugerencia de que los principios éticos y los estándares técnicos son mejores opciones que la regulación plantean interrogantes sobre el papel mismo del Derecho, en especial cuando se analiza el impacto del empleo de esta tecnología en el ámbito laboral.

El análisis de la práctica revela un panorama complejo en el que se encuentran una gran cantidad de iniciativas a nivel regional, pero con resultados poco efectivos a nivel global. Aunque se han llevado a cabo trabajos dentro del marco de las Naciones Unidas, la mayoría de las propuestas se están materializando a nivel regional o interregional, en estructuras lideradas por los países más avanzados económicamente y tecnológicamente, como la OCDE, el Consejo de Europa, la Unión Europea, el G-7 o el G-20 (Heredia Yzquierdo, 2021).

 

MÉTODOS

El artículo se centra en analizar la idoneidad de los marcos legales actuales frente a la incorporación creciente de herramientas informáticas en empresas, con un enfoque particular en los procesos de selección de personal mediante inteligencia artificial (IA), con el objetivo específico de identificar y proponer soluciones que disminuyan la discriminación de género, especialmente hacia las mujeres, en dichos procesos automatizados.

Métodos teóricos:

·         Teórico jurídico: Se llevará a cabo un análisis de la legislación vigente relacionada con la protección de datos personales, libertad empresarial y derechos fundamentales, explorando cómo estas normativas abordan la integración de herramientas informáticas en el ámbito laboral.

·         Método hermenéutico: Se aplicará un enfoque interpretativo profundo para comprender el significado y la intención de las normativas legales en relación con la protección de datos y la no discriminación en el ámbito laboral, considerando la evolución de la sociedad y la tecnología.

Métodos empíricos:

·         Observación indirecta, no participativa: Se llevará a cabo una observación detallada de casos y prácticas en el ámbito empresarial, particularmente en procesos de selección de personal mediante IA, sin intervención directa para obtener una comprensión objetiva de las dinámicas y posibles impactos discriminatorios.

Enfoque de investigación: la investigación adoptará un enfoque interdisciplinario, integrando elementos del derecho, la ética y la tecnología, para ofrecer una comprensión integral de los desafíos legales asociados con la integración de inteligencia artificial en los procesos de selección laboral y proponer soluciones equitativas y efectivas.

 

RESULTADOS

Explorando la inteligencia artificial: concepto y amplitud

Los sistemas de IA, compuestos por software y posiblemente hardware, son creaciones humanas diseñadas para abordar objetivos complejos en entornos físicos y digitales. Estos sistemas adquieren datos de su entorno y son capaces de interpretar datos estructurados y no estructurados. Utilizan este conocimiento y procesamiento de información para tomar decisiones y determinar las mejores acciones que les permitan alcanzar los objetivos deseados. Pueden emplear reglas simbólicas o aprender de manera autónoma a través de modelos numéricos. Además, tienen la capacidad de adaptar su comportamiento basándose en cómo sus acciones previas afectan el entorno en el que operan (Becerril Gil, 2021).

La IA, como disciplina científica, abarca una variedad de enfoques y técnicas. Entre ellas destacan el aprendizaje automático (machine learning), el razonamiento automático (machine reasoning) y la robótica, que integra técnicas de sistemas ciberfísicos.

El aprendizaje automático, también conocido como machine learning (en lo adelante ML), se enfoca en enseñar a las máquinas a aprender de manera autónoma y tomar decisiones basadas en algoritmos aplicados a los datos. Un ejemplo destacado del aprendizaje por refuerzo es AlphaGo de Google DeepMind (Porcelli, 2020).

El aprendizaje profundo, también conocido como Deep Learning (DL), es una subdisciplina del machine learning que usa datos para enseñar a las computadoras a realizar tareas que anteriormente solo podían ser realizadas por humanos. Este campo se enfoca en emular el funcionamiento del cerebro humano para interpretar datos, mediante la construcción de redes neuronales (Rodríguez de Dios, 2023 ).

Dentro del aprendizaje profundo se encuentra el Procesamiento del Lenguaje Natural (NLP) (Arce García, 2023), que se encarga de desentrañar el significado detrás de las palabras, estableciendo la conexión entre las computadoras y cualquier lenguaje humano natural. Un ejemplo destacado en este campo es Watson de IBM, que representa un gran avance en esta área (Fernández Pablo, IBM Watson, 2019).

El Grupo de Alto Nivel en Inteligencia Artificial, establecido por la Comisión Europea con el propósito de elaborar la Estrategia Europea en Inteligencia Artificial, ha definido la Inteligencia Artificial como sistemas capaces de mostrar un comportamiento inteligente al analizar su entorno y tomar acciones con un grado de autonomía para alcanzar metas específicas (Mendoza Enriquez, 2021).

 

Explorando los derechos humanos en la era de la inteligencia artificial

La IA desempeña un papel fundamental en el campo de la salud, lo que ha resultado en avances en diagnósticos, pronósticos de riesgos, prescripción de tratamientos, cirugía robótica, asistencia médica remota, análisis de imágenes médicas, elaboración de mapas sanitarios y control de la propagación de enfermedades, entre otros. Estos avances han proporcionado beneficios para la atención médica (Andrés Segovia, 2021).

En el ámbito de la seguridad ciudadana, la IA juega un papel crucial en diversas áreas, como el reconocimiento biométrico, el registro de actividades, el análisis de comportamientos, la interceptación y análisis de comunicaciones, así como la búsqueda de personas desaparecidas, entre otros (Navacerra Santiago, 2023). Estas aplicaciones de la IA tienen un gran potencial.

 

Entre la algoritmia y la justicia: perspectivas de la regulación jurídica de la inteligencia artificial

La aplicación del Derecho a la IA es una cuestión compleja que no permite respuestas generalistas, ya que no es viable adoptar un modelo único o uniforme. Para abordar este tema, es necesario en primer lugar establecer una distinción entre los ámbitos públicos, el gubernamental, el administrativo, legislativo o judicial, y el ámbito privado. Asimismo, se deben considerar las distintas especialidades jurídicas, como lo civil, penal, mercantil, administrativo, laboral, entre otras. Además, es importante identificar los sectores de actividad en los que el uso de técnicas de IA resultaría mejorado y viable, mientras que en otros casos su implementación podría ser más discutible o incluso excluida.

La segunda perspectiva que considera la regulación jurídica de la IA resulta aún más compleja que su aplicación en el Derecho. Algunos expertos defienden una regulación de naturaleza técnica y/o de carácter no vinculante, que se sitúe en el terreno del soft law. Otro sector por el contrario, defienden la idea de que la regulación alcance el ámbito técnico y el sectorial.

A pesar de las desigualdades resultas del desarrollo tecnológico o el crecimiento de la llamada "brecha digital," dicho principio sigue siendo válido jurídicamente para el estatuto y las relaciones de los Estados en el ámbito internacional, sin importar los cambios que la tecnología pueda imponer en el equilibrio de poderes.

La segunda situación se presenta cuando el contenido de la norma no requiere o no permite una modificación, pero sí es necesario considerar sus modos de aplicación en el ámbito de la IA.

La regulación jurídica de la IA es de vital importancia debido a la creciente influencia y adopción de esta tecnología en diversas áreas de la sociedad. La IA tiene el potencial de transformar la forma en que trabajamos, vivimos y nos relacionamos, lo que conlleva implicaciones éticas, sociales y legales significativas. Algunas de las razones clave para la necesidad de regulación jurídica son las siguientes:

·         Responsabilidad y ética: La IA puede tomar decisiones autónomas y aprender de sus experiencias, lo que hace necesario establecer reglas claras para responsabilizar a los actores involucrados en el desarrollo y uso de la tecnología. Se deben definir límites éticos para evitar el abuso, la discriminación y el sesgo en la toma de decisiones automatizada.

·         Privacidad y protección de datos: La IA requiere grandes cantidades de datos para funcionar correctamente, lo que puede poner en riesgo la privacidad y seguridad de las personas. La regulación debe garantizar que los datos se utilicen de manera ética y segura, protegiendo la privacidad de los individuos y asegurando el cumplimiento de las leyes de protección de datos.

·         Transparencia y explicabilidad: En muchas aplicaciones de IA, como en la toma de decisiones en el sector financiero o en el ámbito judicial, es esencial que los resultados sean comprensibles y explicables para evitar la "caja negra" y asegurar la confianza pública en la tecnología.

·         Competencia y mercado justo: La regulación debe asegurar que la adopción de la IA no conduzca a monopolios o concentración excesiva de poder en unas pocas empresas, lo que podría distorsionar la competencia y frenar la innovación.

·         Seguridad y protección: La IA también puede ser vulnerable a ataques y manipulaciones, por lo que la regulación debe abordar las cuestiones de seguridad cibernética y la prevención de riesgos asociados con el mal uso de la tecnología.

La falta de regulación adecuada de la IA podría tener graves consecuencias, dentro de las que se encuentran:

·         Riesgos para los derechos individuales: La ausencia de normativas sólidas puede conducir a la vulneración de los derechos individuales, como la privacidad, la no discriminación o la protección contra decisiones injustas o sesgadas.

·         Desconfianza pública: La falta de transparencia y explicabilidad en el funcionamiento de los sistemas de IA puede generar desconfianza entre los ciudadanos y consumidores, lo que limitaría la adopción de la tecnología y frenaría su desarrollo.

·         Potenciales daños a la sociedad: Si la IA no se regula adecuadamente, podría desencadenar situaciones peligrosas, como accidentes en sistemas autónomos, propagación de desinformación o la exacerbación de la polarización social.

·         Desigualdades sociales: Sin una regulación equitativa, la IA podría ampliar las brechas existentes en la sociedad, favoreciendo a ciertos grupos mientras marginando a otros, creando así una mayor desigualdad.

 

El derecho en la encrucijada: desafíos ante la revolución de la inteligencia artificial

La implementación de la IA tiene un impacto significativo en varios campos del Derecho, uno de los cuales es la propiedad intelectual. En este contexto, surgen interrogantes intrigantes acerca de quién es el titular de las creaciones desarrolladas por sistemas de IA altamente sofisticados[1]. Específicamente, en el ámbito del Derecho de Autor, nos preguntamos qué sucede cuando un sistema de IA genera una obra literaria original y novedosa o desarrolla software. ¿Se puede presumir que la persona jurídica que encargó el desarrollo del sistema de IA es la titular, de manera similar a las personas jurídicas que solicitan la creación de software? ¿Será la empresa que desarrolló el sistema de IA la titular del software de IA o de las creaciones generadas por el mismo sistema? Es importante destacar que, para reconocer derechos a una entidad de IA, primero debería considerarse un sujeto de derecho con capacidad para ejercer derechos y contraer obligaciones. Este es un terreno poco explorado que requiere un análisis en profundidad.

La posibilidad de considerar a la IA como un sujeto de derecho es un tema complejo y aún en debate. La cuestión plantea una serie de desafíos éticos, jurídicos y filosóficos que deben ser cuidadosamente considerados.

Actualmente, la IA se ve principalmente como una herramienta o sistema desarrollado por seres humanos para llevar a cabo tareas, con capacidad de toma de decisiones y conciencia más específica. Sin embargo, con los avances en la tecnología de IA, surgen interrogantes sobre si en algún momento podría alcanzar un nivel de inteligencia o autonomía que justifique su reconocimiento como sujeto de derecho.

Desde una perspectiva legal, considerar a la IA como sujeto de derecho implicaría otorgarle derechos y responsabilidades legales. Por ejemplo, podría tener la capacidad de ser titular de derechos de propiedad intelectual, responsabilidad por daños o incluso derechos de personalidad.

Sin embargo, este enfoque también plantea desafíos significativos. Por ejemplo, ¿cómo se definiría la personalidad jurídica de la IA? ¿Qué derechos y deberes se le otorgarían, y quién sería responsable en caso de daños causados por un sistema de IA autónomo?

En conclusión, aunque la posibilidad de considerar a la IA como sujeto de derecho es un tema intrigante, aún existen muchos desafíos legales y éticos por resolver antes de llegar a una conclusión definitiva. La discusión en torno a este tema es crucial para garantizar un enfoque responsable y ético en el desarrollo y regulación de la IA en el futuro.

Actualmente, expertos de la Unión Europea han emitido una carta abierta en la que solicitan a la Comisión de la Unión Europea que se abstenga de otorgar una "personalidad electrónica" a los sistemas avanzados de inteligencia artificial (Araya Paz, 2020).

Otro desafío que surge es la aplicación de la IA en el ámbito laboral. La irrupción de sistemas de inteligencia artificial y robótica tendrá sin duda un impacto significativo en el panorama laboral. En primer lugar, se prevé que los empleos de baja calificación, como operarios de maquinarias, operadores de call centers y trabajadores en el área de servicios, como taxistas o choferes de buses, se vean afectados por esta nueva tecnología. Esta automatización podría llevar a una disminución en la demanda de mano de obra en estos sectores, ya que las tareas rutinarias podrían ser asumidas por máquinas y algoritmos más eficientes (Rivas Vallejo, 2022).

Si se analiza uno de las esferas en las que existe una mayor implicación de la IA es la utilización de datos personales. Existen técnicas de aprendizaje automático que presentan una complejidad, ya sea en el modelo o en los algoritmos, lo que resulta en una interpretación limitada o nula de dichas técnicas por parte de los seres humanos. Por esta razón, el tratamiento de datos personales mediante sofisticadas técnicas de inteligencia artificial, como el mencionado aprendizaje automático, puede llevarse a cabo con una forma y finalidad diferente a la que se había programado inicialmente.

Resulta importante destacar que la aplicación de la IA al Derecho también tiene implicaciones positivas dentro de las cuales se encuentran su interacción a través de los llamados "sistemas jurídicos expertos," los cuales se basan en datos y conocimientos. Además, los modelos de bases de datos y los buscadores de leyes y jurisprudencia basados en IA.

 

Desafíos de género en la era de la inteligencia artificial: sesgos en la selección laboral

En apariencia, la aplicación de la inteligencia artificial en los procesos de intermediación laboral y selección de personal podría conducir a un funcionamiento más eficiente del mercado laboral, asegurando objetividad y neutralidad contra cualquier forma de discriminación. Sin embargo, la realidad difiere considerablemente, ya que no se controlan ni se revelan los datos suministrados, su origen, ni los perfiles que son considerados o descartados (Olarte Encabo, 2020). Esto conlleva una exclusión previa de personas con las habilidades profesionales necesarias. Además, tampoco se conocen las instrucciones que la máquina automatiza, es decir, los datos de entrada y salida.

Es importante destacar que, a pesar de que la Ley Orgánica de Protección de Datos Personales y Garantía de Derechos Digitales [2] (en lo adelante LOPD) regula una serie de derechos digitales novedosos, como la neutralidad de internet, el acceso universal, la seguridad digital y la educación digital, no establece garantías específicas para proteger los derechos fundamentales tradicionales, a excepción de la intimidad, que son vitales en el contexto de la infotecnología y la inteligencia artificial.

En cuanto al marco legal que rige el tratamiento de datos en el acceso al empleo, el derecho a la protección de datos personales se considera un derecho fundamental de tercera generación. Aunque es un derecho general, tiene un impacto significativo en las relaciones laborales. Los datos de los trabajadores y de las personas que buscan empleo en procesos de intermediación laboral o selección de personal se consideran datos personales según la definición del Reglamento de la UE 2016/679[3]. Estos datos incluyen información que identifica o es identificable con una persona. Por lo tanto, el tratamiento de datos en ofertas de empleo y procesos de selección está sujeto tanto al Reglamento de Protección de Datos de la UE como a la LOPD.

Es importante destacar que el Reglamento de Protección de Datos de la UE establece un régimen jurídico diferente para ciertas categorías de datos personales, como los "datos de categorías especiales" que incluyen información sobre origen étnico, opiniones políticas, creencias religiosas, datos genéticos, datos de salud y orientación sexual, entre otros. El artículo 9.1 del Reglamento prohíbe el tratamiento de estos datos, excepto en ciertos casos. Sin embargo, la LOPD establece que, para evitar la discriminación, el consentimiento del titular de los datos no es suficiente para permitir el tratamiento de estos datos con el propósito principal de identificar su ideología, afiliación sindical, religión, orientación sexual, creencias u origen racial o étnico. Esta limitación se aplica en el contexto laboral debido a la vulnerabilidad de los trabajadores en la relación contractual.

El artículo 9.2 del Reglamento de Protección de Datos de la UE permite el tratamiento de datos de categorías especiales en otros casos en los que sea necesario para cumplir con obligaciones legales, ejercer derechos específicos del responsable del tratamiento o del interesado en el ámbito del Derecho laboral y la Seguridad y Protección Social. Además, se permite el tratamiento de estos datos para fines de medicina preventiva o salud laboral, siempre que esté respaldado por disposiciones de la UE o el Derecho de los Estados miembros. Sin embargo, estas excepciones plantean desafíos en el ámbito laboral, ya que es difícil aplicarlas de manera práctica.

En nuestra opinión, a la luz de este precepto legal, la obtención y el tratamiento de estos datos por parte de los diversos actores en el ámbito laboral y de la intermediación laboral, así como por parte de los empleadores, no son lícitos, incluso si se cuenta con el consentimiento del interesado o candidato a un empleo. Esta conclusión se fundamenta en dos razones: en primer lugar, nuestra normativa interna parece excluir el mero consentimiento como una excepción válida a la prohibición, al menos si no se establecen garantías adicionales para proteger los derechos fundamentales; en segundo lugar, ni el derecho de acceso al empleo, ni el derecho a seleccionar libremente a los trabajadores más adecuados para un puesto de trabajo requieren necesariamente la recopilación y el tratamiento de estos datos.

De hecho, la obtención y el tratamiento de estos datos pueden dar lugar a prácticas discriminatorias, lo que refuerza la idea de que el consentimiento del titular de los datos no es suficiente para eximirse de la prohibición general (Rivas Vallejo, 2022). El ordenamiento jurídico español exige un nivel de protección más elevado que un "mero consentimiento" para garantizar la igualdad y no discriminación en el acceso al empleo, especialmente en el contexto de las plataformas digitales y sistemas automatizados de toma de decisiones en la contratación, como los algoritmos.

Es en este punto donde se puede argumentar que los tribunales carecen de los mecanismos y las herramientas técnicas necesarias para determinar si estos sistemas de selección basados en inteligencia artificial ocultan una estrategia de discriminación por motivos como la apariencia física, el peso, la situación personal y familiar, la orientación sexual, los hábitos, o si, incluso en ausencia de tal estrategia, los resultados son discriminatorios. De hecho, para poder cumplir adecuadamente su función jurisdiccional, el poder judicial necesita apoyo técnico-informático que respalde cualquier sentencia o resolución judicial relacionada con estos sistemas.

La importancia y urgencia de avanzar en esta dirección se incrementa cuando se considera el impacto colectivo de estas técnicas de gestión de personal, que afectan de manera anónima pero perjudicial a grupos de personas sin su conocimiento y, mucho menos, su consentimiento, a pesar de haber proporcionado datos personales en plataformas sociales no profesionales mediante un consentimiento genérico. La necesidad de garantizar la equidad y la no discriminación en el ámbito laboral se vuelve más apremiante a medida que estos sistemas se vuelven más comunes y sofisticados.

El Consejo de Europa, con su enfoque político-jurídico orientado a fortalecer la visibilidad y protección de los derechos fundamentales, ha dado un paso significativo al abordar la discriminación generada por los algoritmos predictivos. Esta preocupación puede aplicarse a situaciones de vulnerabilidad creadas por el uso de plataformas de empleo y redes sociales para la elaboración de algoritmos de selección de personal. Es posible invocar mecanismos de protección contemplados en el Convenio No. 108 del Consejo de Europa, el cual se centra en la salvaguardia de los derechos de las personas en relación con el tratamiento automatizado de datos personales[4].

Este convenio fue adoptado en Estrasburgo el 29 de enero de 1981 y posteriormente modificado por el Protocolo de 2001 (Convenio No. 108), el cual fue aprobado por el Comité de Ministros del Consejo de Europa el 18 de mayo de 2018. Además, la firma de este convenio por parte de los Estados miembros de la Unión Europea fue autorizada por decisión del Consejo el 8 de abril de 2019.

El Convenio No. 108 y su protocolo de 2001 brindan un marco legal importante para la protección de datos personales y la prevención de la discriminación en el contexto de la automatización de datos. Esta iniciativa del Consejo de Europa resalta la importancia de abordar los desafíos emergentes relacionados con el tratamiento de datos y la inteligencia artificial, en particular en el ámbito de la selección de personal. La orientación del Consejo de Europa contribuye a fortalecer la protección de los derechos fundamentales en una era digital en constante evolución.

La implementación de sistemas de selección de personal basados en inteligencia artificial presenta ventajas significativas, como la reducción de costos en comparación con los métodos tradicionales. Sin embargo, esta aplicación conlleva riesgos y sesgos que no pueden pasarse por alto en el contexto del marco legal y los derechos establecidos en diversas regulaciones (Mercader Uguina, 2022).

Al abordar estos sistemas, es esencial definir no solo el marco legal que debe guiar los procesos de selección realizados por máquinas, sino también la manera en que se emplean estas herramientas digitales (Soriano Arnanz, 2023). En este sentido, la recopilación y el uso masivo de datos en el proceso de contratación deben estar en consonancia con las normas jurídicas existentes.

Es importante señalar que la aplicación de algoritmos de selección avanza más rápido que la regulación legal que los respalda, lo que da lugar a lagunas legales sin solución efectiva frente a los sesgos, la discriminación y la desigualdad sistemática generados por la inteligencia artificial. Es esencial abordar esta brecha normativa para garantizar una selección justa y equitativa en el ámbito laboral.

La falta de representación femenina contribuye a la persistencia y perpetuación de estereotipos de género en nuestra sociedad. Esta falta de visibilidad de las mujeres en ciertos sectores tiene un impacto en los procesos de toma de decisiones automatizadas, que a menudo reflejan los mismos sesgos y discriminaciones, convirtiendo estos algoritmos en instrumentos excluyentes e injustos que contradicen numerosas regulaciones relacionadas con la igualdad efectiva entre mujeres y hombres.

Un ejemplo ilustrativo de esta problemática ocurrió en la empresa Amazon en 2018, cuando se utilizó un algoritmo digital para llevar a cabo la selección de personal. Este algoritmo se basó en datos de solicitantes recopilados durante una década. Dado que la mayoría de los currículos presentados provenían de hombres, el algoritmo aplicó sesgos discriminatorios a los currículos presentados por mujeres, reproduciendo así los sesgos de género presentes en la base de datos de la empresa. La implementación de algoritmos de aprendizaje automático resultó en la exclusión, penalización o descarte de currículos que contenían palabras como mamá o femenino (Pérez López, 2023).

Otro caso relevante se produjo en la red social Facebook. Varios estudios han demostrado que esta plataforma direccionaba anuncios de empleo de manera específica, excluyendo a las mujeres de ciertas oportunidades laborales. Además, la plataforma ofrecía a los arrendadores la capacidad de filtrar posibles inquilinos en función de aspectos concretos como la raza y la ubicación geográfica, entre otros. Además, permitía que los anuncios fueran visibles solo para los inquilinos que cumplieran con estos criterios (Rojo Torrecilla, 2023).

Existe también la posibilidad de manipular los algoritmos para obtener resultados falsos o engañosos, lo que podría tener consecuencias negativas tanto para la empresa como para su reputación. La creciente revolución tecnológica basada en la inteligencia artificial plantea preocupaciones acerca de la capacidad humana para distinguir entre la realidad y la ficción, lo que nos lleva a depender cada vez más de las inteligencias artificiales.

Además, la regulación de los algoritmos presenta desafíos significativos, lo que genera incertidumbre legal en este campo. A pesar de los avances tecnológicos que han contribuido al desarrollo de una "democracia digital" al permitir a los ciudadanos participar más activamente en la vida pública, estos avances también traen consigo desafíos y efectos incompatibles con nuestra sociedad.

Gran parte de la opacidad se debe a la naturaleza técnica e inmaterial de los algoritmos, así como a su protección por derechos de propiedad intelectual. Esto permite que los usuarios mantengan un velo de opacidad en torno a las decisiones automatizadas. Sin embargo, las regulaciones como el Reglamento 2016/679 de la Unión Europea y el Convenio 108 ofrecen mecanismos de protección contra esta opacidad en el tratamiento de datos personales.

Por su parte el Derecho español establece en el artículo 9 de la Ley 15/2022 que las limitaciones, segregaciones o exclusiones basadas en las causas mencionadas en esta ley están prohibidas para el acceso al empleo, tanto en el sector público como en el privado. Esto incluye los criterios de selección, la formación laboral, el avance profesional, la remuneración, la jornada laboral y otras condiciones de trabajo, así como la terminación del contrato de trabajo, ya sea por suspensión, despido u otras causas de extinción. Se consideran discriminatorios los criterios y sistemas de acceso al empleo, ya sea en el ámbito público o privado, así como las condiciones laborales que resulten en situaciones de discriminación indirecta por las causas contempladas en esta ley.

 

DISCUSIÓN

En conclusión, la IA se vincula estrechamente con la creatividad humana, siendo su surgimiento resultado de notables innovaciones tecnológicas impulsadas por cambios económicos, sociales y culturales. La génesis y evolución de la IA son inconcebibles sin considerar el progreso de las Tecnologías de la Información y la Computación (TIC) y el desarrollo de Internet. Los sistemas de IA, creados por humanos, están diseñados para abordar objetivos complejos en entornos físicos y digitales, adquiriendo datos y adaptando su comportamiento según experiencias previas. La disciplina de la IA abarca enfoques diversos, como el aprendizaje automático, el razonamiento automático y la robótica, destacándose el aprendizaje profundo y el Procesamiento del Lenguaje Natural (NLP).

El despliegue de la IA ha brindado beneficios sustanciales a la sociedad, destacándose en áreas como la interacción con la Administración Pública, la gestión de expedientes y la mejora de procedimientos. No obstante, los riesgos asociados a su uso indiscriminado plantean preocupaciones fundamentales en cuanto a los derechos humanos, siendo la protección de datos personales un aspecto crítico en medio de estos desafíos. En el ámbito de la salud, la IA ha impulsado avances notables en diagnósticos, tratamiento, cirugía robótica y control de enfermedades, aunque se presentan preocupaciones sobre la integridad personal y la autonomía del paciente. En seguridad ciudadana, la IA desempeña un papel crucial, pero la utilización abusiva de datos personales y la posibilidad de sesgos discriminatorios generan inquietudes éticas que deben abordarse de manera responsable.

En el contexto de la regulación jurídica de la IA, se observa una complejidad significativa. La aplicación de la IA al Derecho y la regulación de la IA por el Derecho plantean desafíos únicos, especialmente en la necesidad de establecer modelos específicos para diversos ámbitos públicos y privados. La creciente divergencia entre los Estados respecto a la regulación de la IA resalta la importancia de abordar esta cuestión a nivel internacional. La aplicación de modelos de regulación basados en normas obligatorias, reglas voluntarias y medidas de confianza se presenta como una estrategia efectiva para promover un entorno seguro y responsable para el desarrollo y aplicación de la IA. Asimismo, la regulación debe abordar cuestiones clave como la responsabilidad y ética en el uso de la IA, la protección de datos, la transparencia y explicabilidad de los algoritmos, la competencia y el mercado justo, así como la seguridad y protección contra posibles riesgos.

En el presente análisis, se ha evaluado críticamente el estado actual de los marcos legales en respuesta a la creciente integración de herramientas informáticas en entornos empresariales. A pesar de los notables avances en la protección de datos personales en la Unión Europea y las normativas internas españolas, se ha identificado una insuficiencia que demanda una atención inmediata. La urgencia radica en la necesidad de establecer límites específicos a la libertad empresarial, particularmente cuando se utiliza tecnología que facilita el acceso detallado a información personal de los candidatos.

La carencia de protección, incluso en datos compartidos voluntariamente en plataformas digitales, resalta un vacío regulatorio que podría propiciar prácticas discriminatorias en procesos de selección. Las limitaciones actuales en la regulación, en especial la falta de garantías específicas para salvaguardar derechos fundamentales en el ámbito laboral, han quedado al descubierto.

La intervención del Consejo de Europa, particularmente a través del Convenio No. 108 y su protocolo de 2001, se presenta como una dirección crucial para enfrentar los desafíos emergentes en el tratamiento de datos y la inteligencia artificial en los procesos de selección de personal. En resumen, este análisis destaca la necesidad apremiante de abordar lagunas legales y establecer medidas más efectivas para garantizar la equidad y no discriminación en el ámbito laboral, contexto que se ve cada vez más influido por la automatización y la proliferación de la inteligencia artificial. Estas consideraciones constituyen un llamado a la acción para la revisión y fortalecimiento de los marcos legales vigentes.

Basándonos en el análisis realizado, se puede concluir que la implementación de procesos de selección de personal mediante el empleo de la IA presenta riesgos significativos de discriminación de género, especialmente contra las mujeres. Esta preocupación se fundamenta en varios puntos clave expuestos:

·         Sesgos en los datos de entrenamiento: Se señala que los algoritmos de selección pueden reflejar sesgos inconscientes presentes en los datos de entrenamiento. Ejemplos concretos, como el caso de Amazon, revelan que algoritmos basados en datos históricos mayoritariamente masculinos pueden aplicar sesgos discriminatorios contra las mujeres.

·         Falta de representación femenina: La persistente falta de representación femenina en ciertos sectores afecta la diversidad de datos utilizados para entrenar algoritmos. Esta ausencia de datos equitativos puede llevar a la exclusión y discriminación sistemática de mujeres en los procesos de selección automatizados.

·         Estereotipos y exclusión en anuncios de empleo: Se destaca que plataformas como Facebook direccionan anuncios de empleo de manera específica, excluyendo a las mujeres de ciertas oportunidades laborales. Esto revela cómo los algoritmos pueden contribuir a la perpetuación de estereotipos de género y a la exclusión de mujeres en procesos de selección.

·         Dificultades en la evaluación de cualidades intangibles: Los algoritmos pueden enfrentar dificultades para evaluar habilidades y cualidades intangibles, lo que podría impactar negativamente a las mujeres cuyas habilidades y contribuciones no se ajusten a criterios tradicionales y estereotipados.

En conclusión, la implementación de la inteligencia artificial en los procesos de selección de personal plantea un riesgo real de discriminación de género hacia las mujeres. La falta de representación equitativa en los conjuntos de datos, la presencia de sesgos en algoritmos y la posibilidad de perpetuar estereotipos de género destacan la necesidad urgente de abordar estos problemas para garantizar procesos de selección justos, equitativos y libres de discriminación de género en el ámbito laboral.

A raíz del análisis realizado se logran identificar y proponer soluciones para mitigar la discriminación de género en procesos automatizados de selección de personal mediante IA Aquí se presentan algunas recomendaciones:

·         Diversificación de Datos de Entrenamiento: Identificación del Sesgo: Evaluar y corregir posibles sesgos en los conjuntos de datos de entrenamiento, asegurando una representación equitativa de género y evitando la reproducción de estereotipos.

·         Transparencia y Explicabilidad de Algoritmos: Diseño Transparente: Desarrollar algoritmos de selección de personal que sean transparentes y explicables, permitiendo una comprensión clara de cómo toman decisiones y facilitando la identificación y corrección de sesgos.

·         Evaluación Continua y Auditorías: Monitoreo Periódico: Implementar sistemas de evaluación continua para identificar posibles sesgos a medida que evolucionan los conjuntos de datos y las prácticas empresariales.

·         Auditorías Independientes: Realizar auditorías regulares e independientes de los algoritmos utilizados en los procesos de selección para garantizar la equidad y la no discriminación.

·         Inclusión de Perspectivas de Género: Integrar expertos en género en el desarrollo y la revisión de algoritmos, asegurando que las consideraciones de género estén incorporadas desde el inicio del proceso.

·         Regulación Específica: Establecer normativas específicas que prohíban explícitamente la discriminación de género en los procesos de selección automatizados y definan consecuencias claras para su incumplimiento.

·         Capacitación Continua: Proporcionar capacitación regular a los profesionales involucrados en la implementación y supervisión de procesos automatizados, destacando la importancia de la equidad de género y la prevención de sesgos.

·         Transparencia en la Recopilación de Datos: Informar a los candidatos sobre el tipo de datos que se recopilan y cómo se utilizarán, permitiendo la toma de decisiones informadas y fomentando la confianza en el proceso.

·         Adaptabilidad del Algoritmo: Diseñar algoritmos que se ajusten y adapten para abordar nuevas formas de sesgo y discriminación a medida que surgen.

Estas medidas colectivas pueden contribuir significativamente a la mitigación de la discriminación de género en procesos de selección automatizados, promoviendo la equidad y la diversidad en el ámbito laboral.

 

CONCLUSIONES

La IA representa una integración de atributos técnicos y sociales, impulsando la transformación de la economía y la sociedad. La IA conlleva riesgos y desafíos, lo que requiere un control adecuado para prevenir posibles daños, especialmente en áreas sensibles como la ética y la seguridad

La regulación jurídica de la IA es esencial para asegurar que esta tecnología se desarrolle y utilice de manera ética, responsable y segura, protegiendo los derechos individuales y el bienestar social. Ignorar o postergar la implementación de una regulación adecuada podría tener serias consecuencias negativas en nuestro futuro y la forma en que interactuamos con esta poderosa herramienta tecnológica.

La implementación de la inteligencia artificial en los procesos de selección de personal plantea un riesgo real de discriminación de género hacia las mujeres. La falta de representación equitativa en los conjuntos de datos, la presencia de sesgos en algoritmos y la posibilidad de perpetuar estereotipos de género destacan la necesidad urgente de abordar estos problemas para garantizar procesos de selección justos, equitativos y libres de discriminación de género en el ámbito laboral.

 

REFERENCIAS

Andrés Segovia, B. (2021). El reinicio tecnológico de la Inteligencia Artificial en el servicio público de salud. Ius et Scientia, 7(1), 327-356.

Araya Paz, C. (2020). Desafíos legales de la inteligencia artificial en Chile. Revista Chilena de Derecho y Tecnología, 9(2), 257-290.

Arce García, S. y. (2023). Inflaming public debatea methodology to determine origin and characteristics of hate speech about sexual and gender diversity on Twitter. El profesional de la información, 32(1), 6.

Becerril Gil, A. (2021). Retos para la regulación jurídica de la Inteligencia Artificial en el ámbito de la Ciberseguridad. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla, 15(48), 14.

Brundage, M. e. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigations. Executive Summary, University of Oxford, Oxford, 13.

Fernández Pablo, P. (2019). IBM Watson. MoleQla: Revista de Ciencias de la Universidad Pablo de Olavide, (34).

Gómez Rodríguez, J. (2022). Inteligencia artificial y neuroderechos. Retos y perspectivas . Cuestiones Constitucionales, Revista Mexicana de Derecho Constitucional, 46, 94.

Heredia Yzquierdo, F. (2021). Inteligencia artificial y transición ecológica 2030: Una perspectiva europea. ICADE. Revista De La Facultad De Derecho, 112, 1-17.

Mendoza Enriquez, O. (2021). El derecho de protección de datos personales en los sistemas de inteligencia artificial. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla, 182.

Mercader Uguina, J. (2022). La gestión algorítmica del empleo. En J. Mercader Uguina, Algoritmos e inteligencia artificial en el derecho digital del trabajo (pág. 14). Tirant lo Blanch, Valencia.

Navacerra Santiago, J. (2023). Integración de los sensores OCR para la prevención e investigación de la delincuencia. Logos Guardia Civil, Revista Científica del Centro universitario de la Guardia Civil, 1, 347-370.

Olarte Encabo, S. (2020). La aplicación de las Inteligencia artificial a los procesos de selección del personal y ofertas de empleo: Impacto sobre el derecho a la no discriminación. Documentación Laboral, 119, 79-98.

Pérez López, J. (2023). Inteligencia Artificial y Selección laboral. Revista de Estudios Jurídico Laborales y de Seguridad Social, (7).

Porcelli, A. (2020). La inteligencia artificial y la robótica. Sus dilemas sociales, éticos y jurídicos. Derecho Global. Estudios sobre Derecho y Justicia, VI(16), 49-105.

Rivas Vallejo, M. (2022). Discriminación algorítmica en el ámbito laboral. España: Editorial Thomson Reuters Aranzadi.

Robles Carrillo, M. (2020). Artificial Intelligence: From Ethics to Law. Telecommunications Policy, 44(6), 7.

Rodríguez de Dios, N. e. (2023 ). Machine learning-based automated planning for hippocampal avoidance prophylactic cranial irradiation. Clinical & translational oncology, 25(2), 503-509.

Rojo Torrecilla, E. (2023). Una política de empleo adecuada para los cambios en las relaciones laborales del siglo XXI: Estudio de la Ley 3/2023 de 28 de febrero, de Empleo. Revista de Estudios Jurídico Laborales y de Seguridad Social(6).

Soriano Arnanz, A. (2023). El uso de la inteligencia artificial en la selección y gestión del personal de las administraciones públicas. Documentación Administrativa, (9), 22.



[1] Se ha producido un avance legislativo con la promulgación de la Ley 15/2022, que aborda la igualdad de trato y no discriminación en el ámbito de la inteligencia artificial y los sistemas automatizados de toma de decisiones. Esta ley proporciona un marco de protección más amplio contra los riesgos asociados a la inteligencia artificial y el procesamiento masivo de datos, como se establece en el artículo 3.1 o. Sin embargo, a pesar de este avance, aún persisten problemas en la regulación legal, como la falta de una definición clara y precisa de los términos, lo que podría dar lugar a situaciones de atipicidad, inseguridad jurídica y lagunas en el marco normativo. Ley 15/2022, de fecha 12 de julio de 2022, Integral para la Igualdad de Trato y la no Discriminación, BOE No. 167, de fecha 13 de julio de 2022.

[2] Ley No. 3/2018, Ley Orgánica de Protección de Datos Personales y Garantía de Derechos Digitales, BOE No. 294, de fecha 6 de diciembre de 2018.

[3] Reglamento de la UE 2016/679 del Parlamento y Consejo de la Unión Europea, de fecha 27 de abril de 2016, relativo a la protección de personas físicas en lo que respecta a datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE, DOUEn.º 119, de fecha 4 de mayo de 2016, 1 a 88.

[4]Convenio No. 108 del Consejo de Europa, adoptado en Estrasburgo el 29 de enero de 1981 y posteriormente modificado por el Protocolo de 2001 (Convenio 108), el cual fue aprobado por el Comité de Ministros del Consejo de Europa el 18 de mayo de 2018, BOE n.º 274, de fecha 15 de noviembre de 1985.