https://doi.org/10.5281/zenodo.14841783
ARTÍCULO DE REVISIÓN
CIENCIAS SOCIALES
Sesgos de género en la selección laboral con inteligencia artificial: desafíos y soluciones
Gender biases in job selection with artificial intelligence: challenges and solutions
Claudia Lorena Morffi Collado
Universidad Pablo de Olavide, Sevilla, Andalucía, España.
https://orcid.org/0000-0002-0556-6578
Ismel Bravo Placeres
Universidad de Guayaquil, Guayaquil, Guayas, Ecuador.
https://orcid.org/0000-0002-5862-169X.
Recibido: 14/04/2024
Revisado: 30/04/2024
Aprobado: 01/05/2024
Publicado: 19/05/2024
RESUMEN
El presente artículo aborda la inadecuación de los marcos legales frente a la integración creciente de herramientas informáticas en empresas, con un enfoque específico en los procesos de selección de personal mediante inteligencia artificial (IA). El objetivo primordial es analizar la discriminación de género, particularmente hacia las mujeres, en estos procesos automatizados. Se evidencia la necesidad de establecer límites a la libertad empresarial en el uso de tecnologías que podrían perpetuar sesgos y estereotipos de género. El estudio ofrece una contribución significativa a la comprensión crítica de los desafíos asociados con la IA en procesos de selección laboral.
Descriptores: Género; sesgos; inteligencia artificial; discriminación; selección laboral.
ABSTRACT
This article addresses the inadequacy of legal frameworks in the face of the growing integration of computer tools in companies, with a specific focus on personnel selection processes using artificial intelligence (AI). The primary objective is to analyze gender discrimination, particularly towards women, in these automated processes. The need to establish limits on business freedom in the use of technologies that could perpetuate gender biases and stereotypes is evident. The study offers a significant contribution to the critical understanding of the challenges associated with AI in job selection processes.
Descriptors: Gender; bias; artificial intelligence; discrimination; job selection.
INTRODUCCIÓN
Los avances en las Tecnologías de la Información y la Comunicación, conocidas como TIC, han dado origen a una nueva y revolucionaria era que se conoce como la Cuarta Revolución Industrial. A diferencia de las revoluciones anteriores, esta fase de cambio sistémico afecta en su totalidad a los cimientos y el funcionamiento de la vida política, económica y social (Robles Carrillo, 2020). En esta evolución, destacan múltiples elementos, como el Internet de las Cosas, los servicios en la nube, la tecnología Blockchain, el análisis de grandes volúmenes de datos (Big Data), las redes 5G y la computación cuántica. Sin embargo, uno de los componentes de las TIC que está atrayendo una atención especial debido a su alcance, naturaleza y potencial es la Inteligencia Artificial (IA en lo adelante).
La IA es el paradigma dominante en la actualidad. Aunque sus avances en los últimos cinco años son asombrosos, el término "IA" tiene una historia de evolución que se remonta a finales del siglo pasado, específicamente a 1956 cuando John McCarthy acuñó dicho término (Gómez Rodríguez, 2022).
El desarrollo de la IA plantea lo que posiblemente sea el desafío científico más monumental de la historia, ya que aspira a igualar e incluso superar la inteligencia humana. Este fenómeno tiene implicaciones en diversas disciplinas, como la antropología, la filosofía, la sociología, la política, la economía, las ciencias matemáticas y físicas, las ingenierías, así como el Derecho (Araya Paz, 2020).
Desde una perspectiva científica, la IA plantea una problemática compleja. En primer lugar, no existe una definición ampliamente aceptada, ya que el propio concepto es objeto de debate. La expresión "inteligencia" ha generado controversia en la doctrina, que prefiere utilizar términos más precisos como "optimización" (Brundage, 2018).
A pesar de las numerosas contribuciones realizadas desde la ciencia jurídica al estudio de la IA, la noción de que existe un vacío legal o la sugerencia de que los principios éticos y los estándares técnicos son mejores opciones que la regulación plantean interrogantes sobre el papel mismo del Derecho, en especial cuando se analiza el impacto del empleo de esta tecnología en el ámbito laboral.
El análisis de la práctica revela un panorama complejo en el que se encuentran una gran cantidad de iniciativas a nivel regional, pero con resultados poco efectivos a nivel global. Aunque se han llevado a cabo trabajos dentro del marco de las Naciones Unidas, la mayoría de las propuestas se están materializando a nivel regional o interregional, en estructuras lideradas por los países más avanzados económica y tecnológicamente, como la OCDE, el Consejo de Europa, la Unión Europea, el G-7 o el G-20 (Heredia Yzquierdo, 2021).
El artículo se centra en analizar la idoneidad de los marcos legales actuales frente a la incorporación creciente de herramientas informáticas en empresas, con un enfoque particular en los procesos de selección de personal mediante inteligencia artificial (IA).
DESARROLLO
Para el desarrollo de la investigación se utilizaron los métodos que a continuación se describen.
Métodos Teóricos:
· Teórico Jurídico: Se llevará a cabo un análisis de la legislación vigente relacionada con la protección de datos personales, libertad empresarial y derechos fundamentales, explorando cómo estas normativas abordan la integración de herramientas informáticas en el ámbito laboral.
· Método Hermenéutico: Se aplicará un enfoque interpretativo profundo para comprender el significado y la intención de las normativas legales en relación con la protección de datos y la no discriminación en el ámbito laboral, considerando la evolución de la sociedad y la tecnología.
Métodos Empíricos:
· Observación Indirecta, No Participativa: Se llevará a cabo una observación detallada de casos y prácticas en el ámbito empresarial, particularmente en procesos de selección de personal mediante IA, sin intervención directa para obtener una comprensión objetiva de las dinámicas y posibles impactos discriminatorios.
Enfoque de Investigación:
La investigación adoptará un enfoque interdisciplinario, integrando elementos del derecho, la ética y la tecnología, para ofrecer una comprensión integral de los desafíos legales asociados con la integración de inteligencia artificial en los procesos de selección laboral y proponer soluciones equitativas y efectivas.
Explorando la inteligencia artificial: concepto y amplitud
La Inteligencia Artificial (IA) guarda una estrecha relación con la creatividad humana y su surgimiento se debe a notables innovaciones tecnológicas impulsadas por cambios económicos, sociales y culturales en la sociedad actual. La génesis y evolución de la IA resultan incomprensibles sin considerar el progreso de las Tecnologías de la Información y la Computación (TIC), así como el desarrollo de Internet.
Los sistemas de IA, compuestos por software y posiblemente hardware, son creaciones humanas diseñadas para abordar objetivos complejos en entornos físicos y digitales. Estos sistemas adquieren datos de su entorno y son capaces de interpretar datos estructurados y no estructurados. Utilizan este conocimiento y procesamiento de información para tomar decisiones y determinar las mejores acciones que les permitan alcanzar los objetivos deseados. Pueden emplear reglas simbólicas o aprender de manera autónoma a través de modelos numéricos. Además, tienen la capacidad de adaptar su comportamiento basándose en cómo sus acciones previas afectan el entorno en el que operan (Becerril Gil, 2021).
La IA, como disciplina científica, abarca una variedad de enfoques y técnicas. Entre ellas destacan el aprendizaje automático (machine learning), el razonamiento automático (machine reasoning) y la robótica, que integra técnicas de sistemas ciberfísicos.
El aprendizaje automático, también conocido como machine learning (en lo adelante ML), se enfoca en enseñar a las máquinas a aprender de manera autónoma y tomar decisiones basadas en algoritmos aplicados a los datos. En otras palabras, se ocupa de los algoritmos que permiten a los sistemas de IA aprender de forma autónoma. El ML se basa en el aprendizaje supervisado, donde se instruye al sistema utilizando datos que le permiten adquirir conocimientos y habilidades. Un ejemplo destacado del aprendizaje por refuerzo es AlphaGo de Google DeepMind (Porcelli, 2020).
El aprendizaje profundo, también conocido como Deep Learning (DL), es una subdisciplina del machine learning que usa datos para enseñar a las computadoras a realizar tareas que anteriormente solo podían ser realizadas por humanos. Este campo se enfoca en emular el funcionamiento del cerebro humano para interpretar datos, mediante la construcción de redes neuronales (Rodríguez de Dios, 2023).
Dentro del aprendizaje profundo se encuentra el Procesamiento del Lenguaje Natural (NLP) (Arce-García & Menéndez Menéndez, 2023), que se encarga de desentrañar el significado detrás de las palabras, estableciendo la conexión entre las computadoras y cualquier lenguaje humano natural. Un ejemplo destacado en este campo es Watson de IBM, que representa un gran avance en esta área (Fernández Pablo, 2019).
El Grupo de Alto Nivel en Inteligencia Artificial, establecido por la Comisión Europea con el propósito de elaborar la Estrategia Europea en Inteligencia Artificial, ha definido la Inteligencia Artificial como sistemas capaces de mostrar un comportamiento inteligente al analizar su entorno y tomar acciones con un grado de autonomía para alcanzar metas específicas (Mendoza Enriquez, 2021).
Desde una perspectiva técnica, el término IA generalmente se utiliza para describir la capacidad de una máquina para imitar funciones cognitivas humanas. Sin embargo, también ha dado lugar a nuevas ramas, como el aprendizaje de las máquinas (machine learning). En el aprendizaje de las máquinas, los sistemas son capaces de aprender a partir de ejemplos, pruebas o la información y el comportamiento de los usuarios del sistema. Otra aproximación dentro de la IA es el uso de modelos de redes neuronales. Es fundamental destacar que el alcance del concepto de IA continuará evolucionando en paralelo con los avances tecnológicos en este campo.
Para comprender cómo funciona la IA y cómo se pueden programar las máquinas para aprender tareas, es esencial comprender el concepto de algoritmo. Desde la perspectiva de las matemáticas e informática, un algoritmo se define como un conjunto de instrucciones o reglas bien definidas, ordenadas y finitas (Gutierrez David, 2022). Su propósito principal es resolver problemas, realizar cálculos, procesar datos y llevar a cabo diversas tareas.
La insistencia de la doctrina en la necesidad de regular la inteligencia artificial debido a los riesgos que representa para los derechos humanos ha impulsado la creación de dos modelos internacionales de regulación en proceso de aprobación (Ayllón Díaz-González, 2023). En el ámbito de las Naciones Unidas, la UNESCO ha asumido este objetivo mediante una propuesta de Recomendación adoptada en noviembre de 2021. Esta propuesta incluye exigencias éticas que deberán ser adoptadas por las legislaciones internas para garantizar el respeto de los derechos humanos.
Por otro lado, la Unión Europea ha planteado directamente una regulación legal de la inteligencia artificial. Aunque en un principio se enfocó en un marco ético, ahora aboga por la aprobación de normas jurídicas vinculantes que se complementan con requisitos éticos. Esto se refleja en la propuesta de dos Reglamentos del Parlamento Europeo en 2020: uno para establecer un marco de principios éticos y obligaciones jurídicas que regularían la inteligencia artificial, y otro para regular la responsabilidad civil por daños.
La Comisión Europea ha dado un paso decisivo en este sentido en 2021 al proponer la aprobación de un Reglamento más ambicioso. Además de armonizar el Derecho europeo, este Reglamento regularía los sistemas de inteligencia artificial con el objetivo de proteger los derechos humanos. Dicho Reglamento se conocería como Ley de Inteligencia Artificial.
En resumen, la IA representa una integración de atributos técnicos y sociales, impulsando la transformación de la economía y la sociedad, convirtiéndose en una competencia central. Los países que han adoptado la IA como parte de una estrategia nacional, como Estados Unidos, la Unión Europea, China y Francia, buscan optimizar sus beneficios y liderar su desarrollo. Sin embargo, al igual que otras tecnologías, la IA conlleva riesgos y desafíos, lo que requiere un control adecuado para prevenir posibles daños, especialmente en áreas sensibles como la ética y la seguridad.
Explorando los derechos humanos en la era de la inteligencia artificial
Desde el inicio de la adopción de la IA, se han destacado los beneficios que ha aportado a la sociedad. Sin embargo, también han surgido riesgos relacionados con su uso indiscriminado que plantean preocupaciones en cuanto a los derechos humanos. Estos riesgos a menudo se consideran como una consecuencia inevitable a cambio de los beneficios que la IA puede ofrecer, como la agilidad y eficiencia en la interacción con la Administración Pública, la gestión de expedientes y la detección de errores en los procedimientos, entre otros. No obstante, es crucial resaltar que la protección de datos personales es un aspecto crítico en medio de estos desafíos.
La IA desempeña un papel fundamental en el campo de la salud, lo que ha resultado en avances notables en diagnósticos, pronósticos de riesgos, prescripción de tratamientos, cirugía robótica, asistencia médica remota, análisis de imágenes médicas, elaboración de mapas sanitarios y control de la propagación de enfermedades, entre otros. Estos avances han proporcionado beneficios significativos para la atención médica (Andrés Segovia, 2021).
Sin embargo, es esencial reconocer los riesgos y desafíos asociados. En particular, surgen inquietudes en relación con el derecho a la integridad personal debido al manejo de datos personales altamente sensibles. Además, la autonomía del paciente y el consentimiento informado pueden verse comprometidos cuando se delega la toma de decisiones a sistemas de IA. Mantener un control humano efectivo sobre las decisiones finales de los sistemas de IA es imperativo para garantizar una atención médica ética y segura.
En el ámbito de la seguridad ciudadana, la IA juega un papel crucial en diversas áreas, como el reconocimiento biométrico, el registro de actividades, el análisis de comportamientos, la interceptación y análisis de comunicaciones, así como la búsqueda de personas desaparecidas, entre otros (Navacerra Santiago, 2023). Estas aplicaciones de la IA tienen un gran potencial.
Sin embargo, existe la preocupación de que los datos personales puedan ser utilizados de manera abusiva. Especialmente inquietante es el uso de la inteligencia anticipativa con fines de vigilancia policial predictiva, ya que esto puede conducir a una dependencia excesiva de sesgos discriminatorios. Abordar estos desafíos éticos y garantizar que el uso de la IA en la seguridad ciudadana se realice de manera responsable son imperativos, con el fin de evitar cualquier forma de discriminación o abuso en el tratamiento de datos personales.
Entre la algoritmia y la justicia: perspectivas de la regulación jurídica de la inteligencia artificial
La relación entre IA y Derecho puede ser objeto de consideración desde dos perspectivas distintas: la aplicación de la IA al Derecho y la regulación de la IA por el Derecho.
La posibilidad de aplicar la IA al estudio y la práctica del Derecho, al igual que ocurre en otros ámbitos como la medicina, el deporte o la cultura, está siendo objeto de consideración tanto en el ámbito institucional como doctrinal. En distintos Estados y organizaciones internacionales se están abordando temas relacionados con el uso de la IA en la gestión gubernamental, la legislación y la administración de justicia, así como en figuras jurídicas específicas, como los contratos, las patentes o la responsabilidad civil y penal.
La aplicación del Derecho a la IA es una cuestión compleja que no permite respuestas generalistas, ya que no es viable adoptar un modelo único o uniforme. Para abordar este tema, es necesario en primer lugar establecer una distinción entre los ámbitos públicos, el gubernamental, el administrativo, legislativo o judicial, y el ámbito privado. Asimismo, se deben considerar las distintas especialidades jurídicas, como lo civil, penal, mercantil, administrativo, laboral, entre otras. Además, es importante identificar los sectores de actividad en los que el uso de técnicas de IA resultaría mejorado y viable, mientras que en otros casos su implementación podría ser más discutible o incluso excluida.
La segunda perspectiva que considera la regulación jurídica de la IA resulta aún más compleja que su aplicación en el Derecho. Algunos expertos defienden una regulación de naturaleza técnica y/o de carácter no vinculante, que se sitúe en el terreno del soft law. Otro sector por el contrario, defienden la idea de que la regulación alcance el ámbito técnico y el sectorial.
En nuestra opinión la regulación jurídica de la IA puede establecerse a través de dos modelos. El primero constituido sobre reglas y técnicas jurídicas básicas de aplicación general, dentro de las que pueden emplearse principios y normas imperativas del Derecho Internacional aplicables a cualquier ámbito. O desde otro enfoque enmarcarse dentro del desarrollo jurídico de las normativas existentes, siguiendo el ejemplo de cómo se ha abordado la regulación del ciberespacio, otra tecnología disruptiva importante.
El creciente desacuerdo entre los Estados se ha manifestado especialmente en temas relacionados con los efectos de los avances tecnológicos en la seguridad internacional. Sin embargo, a pesar de las diferencias, hay un claro y reiterado consenso entre los Estados sobre la aplicabilidad de las normas de Derecho Internacional en el ciberespacio, la posibilidad de adherirse a normas voluntarias de comportamiento responsable y el desarrollo e implementación de medidas de confianza.
Siguiendo este enfoque, se podría e incluso debería, aplicar un modelo de regulación similar para la IA, basado en un tríptico de normas obligatorias, reglas voluntarias y medidas de confianza. Esto permitiría establecer una regulación adecuada para la IA dentro del marco jurídico existente, promoviendo así un entorno más seguro y responsable para su desarrollo y aplicación.
Considerando que la IA es una tecnología disruptiva de alcance transversal, pero que hasta ahora no ha implicado un cambio estructural en los modelos de funcionamiento de la sociedad, se puede plantear una tercera opción para su regulación. Esta opción consistiría en separar el contenido de la norma de su aplicación en el ámbito de la IA.
Desde esta perspectiva, se pueden identificar varias situaciones. La primera es aquella en la que el contenido y la aplicación de la norma no se ven afectados. Por ejemplo, el principio de igualdad soberana de los Estados se aplica de manera independiente al ámbito de actividad y todos los actores involucrados. A pesar de las desigualdades resultas del desarrollo tecnológico o el crecimiento de la llamada "brecha digital," dicho principio sigue siendo válido jurídicamente para el estatuto y las relaciones de los Estados en el ámbito internacional, sin importar los cambios que la tecnología pueda imponer en el equilibrio de poderes.
La segunda situación se presenta cuando el contenido de la norma no requiere o no permite una modificación, pero sí es necesario considerar sus modos de aplicación en el ámbito de la IA. Por ejemplo, la prohibición del uso o la amenaza de la fuerza armada sigue siendo un contenido normativo imperativo. A pesar de los avances tecnológicos, el principio en sí no se cuestiona en cuanto a su autoridad, legitimidad y obligatoriedad. Sin embargo, su aplicación a la IA puede requerir un tratamiento específico, similar a lo que ha ocurrido con tecnologías previas.
La regulación jurídica de la IA es de vital importancia debido a la creciente influencia y adopción de esta tecnología en diversas áreas de la sociedad. La IA tiene el potencial de transformar la forma en que trabajamos, vivimos y nos relacionamos, lo que conlleva implicaciones éticas, sociales y legales significativas. Algunas de las razones clave para la necesidad de regulación jurídica son las siguientes:
Responsabilidad y ética: La IA puede tomar decisiones autónomas y aprender de sus experiencias, lo que hace necesario establecer reglas claras para responsabilizar a los actores involucrados en el desarrollo y uso de la tecnología. Se deben definir límites éticos para evitar el abuso, la discriminación y el sesgo en la toma de decisiones automatizada.
Privacidad y protección de datos: La IA requiere grandes cantidades de datos para funcionar correctamente, lo que puede poner en riesgo la privacidad y seguridad de las personas. La regulación debe garantizar que los datos se utilicen de manera ética y segura, protegiendo la privacidad de los individuos y asegurando el cumplimiento de las leyes de protección de datos.
Transparencia y explicabilidad: En muchas aplicaciones de IA, como en la toma de decisiones en el sector financiero o en el ámbito judicial, es esencial que los resultados sean comprensibles y explicables para evitar la "caja negra" y asegurar la confianza pública en la tecnología.
Competencia y mercado justo: La regulación debe asegurar que la adopción de la IA no conduzca a monopolios o concentración excesiva de poder en unas pocas empresas, lo que podría distorsionar la competencia y frenar la innovación.
Seguridad y protección: La IA también puede ser vulnerable a ataques y manipulaciones, por lo que la regulación debe abordar las cuestiones de seguridad cibernética y la prevención de riesgos asociados con el mal uso de la tecnología.
La falta de regulación adecuada de la IA podría tener graves consecuencias, dentro de las que se encuentran:
· Riesgos para los derechos individuales: La ausencia de normativas sólidas puede conducir a la vulneración de los derechos individuales, como la privacidad, la no discriminación o la protección contra decisiones injustas o sesgadas.
· Desconfianza pública: La falta de transparencia y explicabilidad en el funcionamiento de los sistemas de IA puede generar desconfianza entre los ciudadanos y consumidores, lo que limitaría la adopción de la tecnología y frenaría su desarrollo.
· Potenciales daños a la sociedad: Si la IA no se regula adecuadamente, podría desencadenar situaciones peligrosas, como accidentes en sistemas autónomos, propagación de desinformación o la exacerbación de la polarización social.
· Desigualdades sociales: Sin una regulación equitativa, la IA podría ampliar las brechas existentes en la sociedad, favoreciendo a ciertos grupos mientras marginando a otros, creando así una mayor desigualdad.
En conclusión, la regulación jurídica de la IA es esencial para asegurar que esta tecnología se desarrolle y utilice de manera ética, responsable y segura, protegiendo los derechos individuales y el bienestar social. Ignorar o postergar la implementación de una regulación adecuada podría tener serias consecuencias negativas en nuestro futuro y la forma en que interactuamos con esta poderosa herramienta tecnológica.
El derecho en la encrucijada: desafíos ante la revolución de la inteligencia artificial
La implementación de la IA tiene un impacto significativo en varios campos del Derecho, uno de los cuales es la propiedad intelectual. En este contexto, surgen interrogantes intrigantes acerca de quién es el titular de las creaciones desarrolladas por sistemas de IA altamente sofisticados[1]. Específicamente, en el ámbito del Derecho de Autor, nos preguntamos qué sucede cuando un sistema de IA genera una obra literaria original y novedosa o desarrolla software. ¿Se puede presumir que la persona jurídica que encargó el desarrollo del sistema de IA es la titular, de manera similar a las personas jurídicas que solicitan la creación de software? ¿Será la empresa que desarrolló el sistema de IA la titular del software de IA o de las creaciones generadas por el mismo sistema? Es importante destacar que, para reconocer derechos a una entidad de IA, primero debería considerarse un sujeto de derecho con capacidad para ejercer derechos y contraer obligaciones. Este es un terreno poco explorado que requiere un análisis en profundidad.
La posibilidad de considerar a la IA como un sujeto de derecho es un tema complejo y aún en debate. La cuestión plantea una serie de desafíos éticos, jurídicos y filosóficos que deben ser cuidadosamente considerados.
Actualmente, la IA se ve principalmente como una herramienta o sistema desarrollado por seres humanos para llevar a cabo tareas, con capacidad de toma de decisiones y conciencia más específica. Sin embargo, con los avances en la tecnología de IA, surgen interrogantes sobre si en algún momento podría alcanzar un nivel de inteligencia o autonomía que justifique su reconocimiento como sujeto de derecho.
Desde una perspectiva legal, considerar a la IA como sujeto de derecho implicaría otorgarle derechos y responsabilidades legales. Por ejemplo, podría tener la capacidad de ser titular de derechos de propiedad intelectual, responsabilidad por daños o incluso derechos de personalidad.
Sin embargo, este enfoque también plantea desafíos significativos. Por ejemplo, ¿cómo se definiría la personalidad jurídica de la IA? ¿Qué derechos y deberes se le otorgarían, y quién sería responsable en caso de daños causados por un sistema de IA autónomo? Además, existen preocupaciones éticas sobre la consideración de una entidad artificial como sujeto de derecho, lo que podría tener implicaciones en la percepción de la dignidad y los derechos humanos.
En la actualidad, la mayoría de los sistemas de IA son creados y controlados por humanos, lo que lleva a que los debates sobre el reconocimiento de la personalidad jurídica de la IA están en una etapa incipiente. Sin embargo, es importante que la sociedad, los expertos en ética, los legisladores y los profesionales del Derecho continúen reflexionando sobre estos temas a medida que la tecnología de IA avanza.
En conclusión, aunque la posibilidad de considerar a la IA como sujeto de derecho es un tema intrigante, aún existen muchos desafíos legales y éticos por resolver antes de llegar a una conclusión definitiva. La discusión en torno a este tema es crucial para garantizar un enfoque responsable y ético en el desarrollo y regulación de la IA en el futuro.
Actualmente, expertos de la Unión Europea han emitido una carta abierta en la que solicitan a la Comisión de la Unión Europea que se abstenga de otorgar una "personalidad electrónica" a los sistemas avanzados de inteligencia artificial (Araya Paz, 2020). Argumentan que conceder un estatus jurídico a estos sistemas implicaría reconocerles derechos fundamentales, como la integridad y la dignidad, a entidades que no poseen estas características, lo que iría en contra de la Carta Fundamental de Derechos Humanos de la Unión Europea. Aunque plantear estos interrogantes en la situación actual de la inteligencia artificial podría parecer poco relevante, es indudable que en el futuro será un tema de intenso debate.
Otro desafío que surge es la aplicación de la IA en el ámbito laboral. La irrupción de sistemas de inteligencia artificial y robótica tendrá sin duda un impacto significativo en el panorama laboral. En primer lugar, se prevé que los empleos de baja calificación, como operarios de maquinarias, operadores de call centers y trabajadores en el área de servicios, como taxistas o choferes de buses, se vean afectados por esta nueva tecnología. Esta automatización podría llevar a una disminución en la demanda de mano de obra en estos sectores, ya que las tareas rutinarias podrían ser asumidas por máquinas y algoritmos más eficientes (Rivas Vallejo, 2022).
Si se analiza una de las esferas en las que existe una mayor implicación de la IA es la utilización de datos personales. Existen técnicas de aprendizaje automático que presentan una complejidad, ya sea en el modelo o en los algoritmos, lo que resulta en una interpretación limitada o nula de dichas técnicas por parte de los seres humanos. Por esta razón, el tratamiento de datos personales mediante sofisticadas técnicas de inteligencia artificial, como el mencionado aprendizaje automático, puede llevarse a cabo con una forma y finalidad diferente a la que se había programado inicialmente. Esto conlleva a que los titulares de los datos personales no puedan controlar la finalidad con la que entregan sus datos, lo cual en muchas ocasiones va en contra del principio de finalidad, pero es necesario para que el sistema alcance el objetivo para el que fue diseñado.
Por otro lado, la irrupción de esta tecnología también generará un impacto en empleos más calificados. Un ejemplo claro es el caso de los corredores de bolsa, donde se observa una creciente tendencia hacia el uso de modelos de machine learning para analizar con mayor precisión los movimientos bursátiles y detectar patrones que puedan traducirse en mayores ganancias. Algunos de los principales fondos de inversión y corredoras ya están implementando estas técnicas, lo que demuestra cómo la inteligencia artificial está transformando incluso los sectores más especializados y sofisticados.
Resulta importante destacar que la aplicación de la IA al Derecho también tiene implicaciones positivas dentro de las cuales se encuentran su interacción a través de los llamados "sistemas jurídicos expertos," los cuales se basan en datos y conocimientos. Además, los modelos de bases de datos y los buscadores de leyes y jurisprudencia basados en IA.
Desafíos de género en la era de la IA: sesgos en la selección laboral
En lo que respecta al empleo de tecnologías en los procesos de selección de personal, el campo del Derecho laboral presta una atención especial a la protección de los derechos fundamentales, tanto en su expresión general como en su dimensión específica en el contexto laboral de la era digital. El uso de tecnologías de la información en la gestión de recursos humanos puede tener un impacto significativo en la dignidad, intimidad, honor e imagen de los trabajadores. Además, el acceso a datos de la vida privada publicados en línea puede ser utilizado de manera discriminatoria en el ámbito laboral sin el conocimiento del propio titular de estos datos.
En apariencia, la aplicación de la inteligencia artificial en los procesos de intermediación laboral y selección de personal podría conducir a un funcionamiento más eficiente del mercado laboral, asegurando objetividad y neutralidad contra cualquier forma de discriminación. Sin embargo, la realidad difiere considerablemente, ya que no se controlan ni se revelan los datos suministrados, su origen, ni los perfiles que son considerados o descartados (Olarte Encabo, 2020). Esto conlleva una exclusión previa de personas con las habilidades profesionales necesarias. Además, tampoco se conocen las instrucciones que la máquina automatiza, es decir, los datos de entrada y salida.
Por tanto, el avance digital presenta nuevos desafíos legales en la protección efectiva del derecho fundamental a la igualdad y la no discriminación en el acceso al empleo. Debido a su complejidad técnica e informática, las prácticas discriminatorias se vuelven opacas e incomprensibles, y el soporte técnico, generalmente basado en algoritmos, está protegido por el secreto industrial, lo cual representa una novedad significativa en este contexto.
El estado actual de los marcos legales, en respuesta a la creciente incorporación de herramientas informáticas en las empresas, resulta insuficiente, a pesar de los avances realizados en la protección de datos personales en el Derecho de la UE y las regulaciones internas. Aunque la libertad empresarial para contratar a trabajadores de su elección es un derecho constitucionalmente garantizado que no se cuestiona, resulta urgente establecer límites específicos a esta libertad cuando se ejerce con el apoyo de tecnología que, en la práctica, permite a los empleadores acceder a historiales médicos, información familiar, preferencias personales, hábitos de vida, orientación sexual y más.
Esta falta de protección es real, incluso en el caso de datos que las personas comparten voluntariamente en plataformas digitales para fines no relacionados con su vida profesional, como las redes sociales. Estos datos son recopilados y procesados por máquinas que crean perfiles y, en ocasiones, los utilizan de manera automática y anónima, lo que resulta en la exclusión de individuos basada en sus perfiles personales antes de poder participar en procesos de selección.
Es importante destacar que, a pesar de que la Ley Orgánica de Protección de Datos Personales y Garantía de Derechos Digitales (LOPD, 2018) regula una serie de derechos digitales novedosos, como la neutralidad de internet, el acceso universal, la seguridad digital y la educación digital, no establece garantías específicas para proteger los derechos fundamentales tradicionales, a excepción de la intimidad, que son vitales en el contexto de la infotecnología y la inteligencia artificial. Un ejemplo elocuente de esta falta de previsión es la ausencia de regulación en la LOPD con respecto al derecho de acceso al empleo en condiciones de igualdad y no discriminación en las plataformas digitales y sistemas de toma de decisiones automatizados basados en algoritmos.
En cuanto al marco legal que rige el tratamiento de datos en el acceso al empleo, el derecho a la protección de datos personales se considera un derecho fundamental de tercera generación. Aunque es un derecho general, tiene un impacto significativo en las relaciones laborales. Los datos de los trabajadores y de las personas que buscan empleo en procesos de intermediación laboral o selección de personal se consideran datos personales según la definición del Reglamento de la UE 2016/679. Estos datos incluyen información que identifica o es identificable con una persona. Por lo tanto, el tratamiento de datos en ofertas de empleo y procesos de selección está sujeto tanto al Reglamento de Protección de Datos de la UE como a la LOPD.
Es importante destacar que el Reglamento de Protección de Datos de la UE establece un régimen jurídico diferente para ciertas categorías de datos personales, como los "datos de categorías especiales” que incluyen información sobre origen étnico, opiniones políticas, creencias religiosas, datos genéticos, datos de salud y orientación sexual, entre otros. El artículo 9.1 del Reglamento prohíbe el tratamiento de estos datos, excepto en ciertos casos. Sin embargo, la LOPD establece que, para evitar la discriminación, el consentimiento del titular de los datos no es suficiente para permitir el tratamiento de estos datos con el propósito principal de identificar su ideología, afiliación sindical, religión, orientación sexual, creencias u origen racial o étnico. Esta limitación se aplica en el contexto laboral debido a la vulnerabilidad de los trabajadores en la relación contractual.
El artículo 9.2 del Reglamento de Protección de Datos de la UE permite el tratamiento de datos de categorías especiales en otros casos en los que sea necesario para cumplir con obligaciones legales, ejercer derechos específicos del responsable del tratamiento o del interesado en el ámbito del Derecho laboral y la Seguridad y Protección Social. Además, se permite el tratamiento de estos datos para fines de medicina preventiva o salud laboral, siempre que esté respaldado por disposiciones de la UE o el Derecho de los Estados miembros. Sin embargo, estas excepciones plantean desafíos en el ámbito laboral, ya que es difícil aplicarlas de manera práctica.
En nuestra opinión, a la luz de este precepto legal, la obtención y el tratamiento de estos datos por parte de los diversos actores en el ámbito laboral y de la intermediación laboral, así como por parte de los empleadores, no son lícitos, incluso si se cuenta con el consentimiento del interesado o candidato a un empleo. Esta conclusión se fundamenta en dos razones: en primer lugar, nuestra normativa interna parece excluir el mero consentimiento como una excepción válida a la prohibición, al menos si no se establecen garantías adicionales para proteger los derechos fundamentales; en segundo lugar, ni el derecho de acceso al empleo, ni el derecho a seleccionar libremente a los trabajadores más adecuados para un puesto de trabajo requieren necesariamente la recopilación y el tratamiento de estos datos.
De hecho, la obtención y el tratamiento de estos datos pueden dar lugar a prácticas discriminatorias, lo que refuerza la idea de que el consentimiento del titular de los datos no es suficiente para eximirse de la prohibición general (Rivas Vallejo, 2022). El ordenamiento jurídico español exige un nivel de protección más elevado que un "mero consentimiento" para garantizar la igualdad y no discriminación en el acceso al empleo, especialmente en el contexto de las plataformas digitales y sistemas automatizados de toma de decisiones en la contratación, como los algoritmos.
Los desafíos que el marco legal laboral debe abordar para proteger a las personas contra la discriminación indirecta generada por los nuevos sistemas automatizados de selección de personal son tanto de índole procesal como sustantiva. En términos procesales, nos enfrentamos a un problema fundamental relacionado con la carga de la prueba debido a la intrínseca opacidad de estos sistemas. Desde una perspectiva sustantiva, se destaca la necesidad de introducir garantías adicionales, así como mejorar las existentes. Entre estas medidas, destacan las preventivas, el control público, la participación de los representantes de los trabajadores y la previsión de garantías adicionales mediante la negociación colectiva para proteger los derechos y libertades de los trabajadores relacionados con el tratamiento de sus datos personales.
Es en este punto donde se puede argumentar que los tribunales carecen de los mecanismos y las herramientas técnicas necesarias para determinar si estos sistemas de selección basados en inteligencia artificial ocultan una estrategia de discriminación por motivos como la apariencia física, el peso, la situación personal y familiar, la orientación sexual, los hábitos, o si, incluso en ausencia de tal estrategia, los resultados son discriminatorios. De hecho, para poder cumplir adecuadamente su función jurisdiccional, el poder judicial necesita apoyo técnico-informático que respalde cualquier sentencia o resolución judicial relacionada con estos sistemas. Este respaldo puede implementarse mediante mecanismos de control previo, como la certificación que estos algoritmos o máquinas inteligentes deben obtener antes de su uso, o a través de mecanismos de control posterior mediante auditorías informáticas especializadas cuando el caso ya está en la fase judicial.
La importancia y urgencia de avanzar en esta dirección se incrementa cuando se considera el impacto colectivo de estas técnicas de gestión de personal, que afectan de manera anónima pero perjudicial a grupos de personas sin su conocimiento y, mucho menos, su consentimiento, a pesar de haber proporcionado datos personales en plataformas sociales no profesionales mediante un consentimiento genérico. La necesidad de garantizar la equidad y la no discriminación en el ámbito laboral se vuelve más apremiante a medida que estos sistemas se vuelven más comunes y sofisticados.
El Consejo de Europa, con su enfoque político-jurídico orientado a fortalecer la visibilidad y protección de los derechos fundamentales, ha dado un paso significativo al abordar la discriminación generada por los algoritmos predictivos. Esta preocupación puede aplicarse a situaciones de vulnerabilidad creadas por el uso de plataformas de empleo y redes sociales para la elaboración de algoritmos de selección de personal. Es posible invocar mecanismos de protección contemplados en el Convenio No. 108 del Consejo de Europa, el cual se centra en la salvaguardia de los derechos de las personas en relación con el tratamiento automatizado de datos personales
Este convenio fue adoptado en Estrasburgo el 29 de enero de 1981 y posteriormente modificado por el Protocolo de 2001 (Convenio No. 108), el cual fue aprobado por el Comité de Ministros del Consejo de Europa el 18 de mayo de 2018. Además, la firma de este convenio por parte de los Estados miembros de la Unión Europea fue autorizada por decisión del Consejo el 8 de abril de 2019.
El Convenio No. 108 y su protocolo de 2001 brindan un marco legal importante para la protección de datos personales y la prevención de la discriminación en el contexto de la automatización de datos. Esta iniciativa del Consejo de Europa resalta la importancia de abordar los desafíos emergentes relacionados con el tratamiento de datos y la inteligencia artificial, en particular en el ámbito de la selección de personal. La orientación del Consejo de Europa contribuye a fortalecer la protección de los derechos fundamentales en una era digital en constante evolución.
La implementación de sistemas de selección de personal basados en inteligencia artificial presenta ventajas significativas, como la reducción de costos en comparación con los métodos tradicionales. Sin embargo, esta aplicación conlleva riesgos y sesgos que no pueden pasarse por alto en el contexto del marco legal y los derechos establecidos en diversas regulaciones. (Mercader Uguina, 2022)
Al abordar estos sistemas, es esencial definir no solo el marco legal que debe guiar los procesos de selección realizados por máquinas, sino también la manera en que se emplean estas herramientas digitales (Soriano Amanz, 2023). En este sentido, la recopilación y el uso masivo de datos en el proceso de contratación deben estar en consonancia con las normas jurídicas existentes.
Es importante señalar que la aplicación de algoritmos de selección avanza más rápido que la regulación legal que los respalda, lo que da lugar a lagunas legales sin solución efectiva frente a los sesgos, la discriminación y la desigualdad sistemática generados por la inteligencia artificial. Es esencial abordar esta brecha normativa para garantizar una selección justa y equitativa en el ámbito laboral.
La falta de representación femenina contribuye a la persistencia y perpetuación de estereotipos de género en nuestra sociedad. Esta falta de visibilidad de las mujeres en ciertos sectores tiene un impacto en los procesos de toma de decisiones automatizadas, que a menudo reflejan los mismos sesgos y discriminaciones, convirtiendo estos algoritmos en instrumentos excluyentes e injustos que contradicen numerosas regulaciones relacionadas con la igualdad efectiva entre mujeres y hombres.
Un ejemplo ilustrativo de esta problemática ocurrió en la empresa Amazon en 2018, cuando se utilizó un algoritmo digital para llevar a cabo la selección de personal. Este algoritmo se basó en datos de solicitantes recopilados durante una década. Dado que la mayoría de los currículos presentados provenían de hombres, el algoritmo aplicó sesgos discriminatorios a los currículos presentados por mujeres, reproduciendo así los sesgos de género presentes en la base de datos de la empresa. La implementación de algoritmos de aprendizaje automático resultó en la exclusión, penalización o descarte de currículos que contenían palabras como mamá o femenino (Pérez López, 2023).
Otro caso relevante se produjo en la red social Facebook. Varios estudios han demostrado que esta plataforma direccionaba anuncios de empleo de manera específica, excluyendo a las mujeres de ciertas oportunidades laborales. Además, la plataforma ofrecía a los arrendadores la capacidad de filtrar posibles inquilinos en función de aspectos concretos como la raza y la ubicación geográfica, entre otros. Además, permitía que los anuncios fueran visibles solo para los inquilinos que cumplieran con estos criterios (Rojo Torrecilla, 2023).
Los algoritmos, en su implementación, pueden conllevar desafíos y preocupaciones significativos. Uno de los aspectos problemáticos es su tendencia a reflejar sesgos inconscientes, lo que puede tener un impacto perjudicial en la diversidad laboral y perjudicar a ciertos grupos de individuos. Además, los algoritmos pueden enfrentar dificultades al evaluar habilidades y cualidades intangibles, lo que puede llevar a la exclusión de candidatos valiosos.
Existe también la posibilidad de manipular los algoritmos para obtener resultados falsos o engañosos, lo que podría tener consecuencias negativas tanto para la empresa como para su reputación. La creciente revolución tecnológica basada en la inteligencia artificial plantea preocupaciones acerca de la capacidad humana para distinguir entre la realidad y la ficción, lo que nos lleva a depender cada vez más de las inteligencias artificiales.
Además, la regulación de los algoritmos presenta desafíos significativos, lo que genera incertidumbre legal en este campo. A pesar de los avances tecnológicos que han contribuido al desarrollo de una "democracia digital" al permitir a los ciudadanos participar más activamente en la vida pública, estos avances también traen consigo desafíos y efectos incompatibles con nuestra sociedad.
La introducción de algoritmos en la toma de decisiones laborales ha alterado la responsabilidad tradicional de los empleadores y la capacidad de respuesta de los trabajadores. Los algoritmos se presentan como objetivos y opacos, lo que dificulta la defensa de los empleados. La opacidad es un problema común en las decisiones, ya sean empresariales o públicas.
Gran parte de la opacidad se debe a la naturaleza técnica e inmaterial de los algoritmos, así como a su protección por derechos de propiedad intelectual. Esto permite que los usuarios mantengan un velo de opacidad en torno a las decisiones automatizadas. Sin embargo, las regulaciones como el Reglamento 2016/679 de la Unión Europea y el Convenio 108 ofrecen mecanismos de protección contra esta opacidad en el tratamiento de datos personales.
Por su parte el Derecho español establece en el artículo 9 de la Ley 15/2022 que las limitaciones, segregaciones o exclusiones basadas en las causas mencionadas en esta ley están prohibidas para el acceso al empleo, tanto en el sector público como en el privado. Esto incluye los criterios de selección, la formación laboral, el avance profesional, la remuneración, la jornada laboral y otras condiciones de trabajo, así como la terminación del contrato de trabajo, ya sea por suspensión, despido u otras causas de extinción. Se consideran discriminatorios los criterios y sistemas de acceso al empleo, ya sea en el ámbito público o privado, así como las condiciones laborales que resulten en situaciones de discriminación indirecta por las causas contempladas en esta ley.
CONCLUSIONES
La IA se vincula estrechamente con la creatividad humana, siendo su surgimiento resultado de notables innovaciones tecnológicas impulsadas por cambios económicos, sociales y culturales. La génesis y evolución de la IA son inconcebibles sin considerar el progreso de las Tecnologías de la Información y la Computación (TIC) y el desarrollo de Internet. Los sistemas de IA, creados por humanos, están diseñados para abordar objetivos complejos en entornos físicos y digitales, adquiriendo datos y adaptando su comportamiento según experiencias previas. La disciplina de la IA abarca enfoques diversos, como el aprendizaje automático, el razonamiento automático y la robótica, destacándose el aprendizaje profundo y el Procesamiento del Lenguaje Natural (NLP).
El despliegue de la IA ha brindado beneficios sustanciales a la sociedad, destacándose en áreas como la interacción con la Administración Pública, la gestión de expedientes y la mejora de procedimientos. No obstante, los riesgos asociados a su uso indiscriminado plantean preocupaciones fundamentales en cuanto a los derechos humanos, siendo la protección de datos personales un aspecto crítico en medio de estos desafíos. En el ámbito de la salud, la IA ha impulsado avances notables en diagnósticos, tratamiento, cirugía robótica y control de enfermedades, aunque se presentan preocupaciones sobre la integridad personal y la autonomía del paciente. En seguridad ciudadana, la IA desempeña un papel crucial, pero la utilización abusiva de datos personales y la posibilidad de sesgos discriminatorios generan inquietudes éticas que deben abordarse de manera responsable.
En el contexto de la regulación jurídica de la IA, se observa una complejidad significativa. La aplicación de la IA al Derecho y la regulación de la IA por el Derecho plantean desafíos únicos, especialmente en la necesidad de establecer modelos específicos para diversos ámbitos públicos y privados. La creciente divergencia entre los Estados respecto a la regulación de la IA resalta la importancia de abordar esta cuestión a nivel internacional. La aplicación de modelos de regulación basados en normas obligatorias, reglas voluntarias y medidas de confianza se presenta como una estrategia efectiva para promover un entorno seguro y responsable para el desarrollo y aplicación de la IA. Asimismo, la regulación debe abordar cuestiones clave como la responsabilidad y ética en el uso de la IA, la protección de datos, la transparencia y explicabilidad de los algoritmos, la competencia y el mercado justo, así como la seguridad y protección contra posibles riesgos.
En el presente análisis, se ha evaluado críticamente el estado actual de los marcos legales en respuesta a la creciente integración de herramientas informáticas en entornos empresariales. A pesar de los notables avances en la protección de datos personales en la Unión Europea y las normativas internas españolas, se ha identificado una insuficiencia que demanda una atención inmediata. La urgencia radica en la necesidad de establecer límites específicos a la libertad empresarial, particularmente cuando se utiliza tecnología que facilita el acceso detallado a información personal de los candidatos.
La carencia de protección, incluso en datos compartidos voluntariamente en plataformas digitales, resalta un vacío regulatorio que podría propiciar prácticas discriminatorias en procesos de selección. Las limitaciones actuales en la regulación, en especial la falta de garantías específicas para salvaguardar derechos fundamentales en el ámbito laboral, han quedado al descubierto.
La intervención del Consejo de Europa, particularmente a través del Convenio No. 108 y su protocolo de 2001, se presenta como una dirección crucial para enfrentar los desafíos emergentes en el tratamiento de datos y la inteligencia artificial en los procesos de selección de personal. En resumen, este análisis destaca la necesidad apremiante de abordar lagunas legales y establecer medidas más efectivas para garantizar la equidad y no discriminación en el ámbito laboral, contexto que se ve cada vez más influido por la automatización y la proliferación de la inteligencia artificial. Estas consideraciones constituyen un llamado a la acción para la revisión y fortalecimiento de los marcos legales vigentes.
Basándonos en el análisis realizado, se puede concluir que la implementación de procesos de selección de personal mediante el empleo de la IA presenta riesgos significativos de discriminación de género, especialmente contra las mujeres. Esta preocupación se fundamenta en elementos, como son: los sesgos en los datos de entrenamiento, la falta de representación femenina, los estereotipos y exclusión en anuncios de empleo; y las dificultades en la evaluación de cualidades intangibles, entre otros.
Por último, la implementación de la inteligencia artificial en los procesos de selección de personal plantea un riesgo real de discriminación de género hacia las mujeres. La falta de representación equitativa en los conjuntos de datos, la presencia de sesgos en algoritmos y la posibilidad de perpetuar estereotipos de género destacan la necesidad urgente de abordar estos problemas para garantizar procesos de selección justos, equitativos y libres de discriminación de género en el ámbito laboral.
Andrés Segovia, B. (2021). El reinicio tecnológico de la Inteligencia Artificial en el servicio público de salud. Ius et Scientia, Vol. 7, No. 1, 327-356.
Araya Paz, C. (2020). Desafíos legales de la inteligencia artificial en Chile. Revista Chilena de Derecho y Tecnología, Vol. 9, No. 2, 257-290.
Arce-García, S., & Menéndez Menéndez, M. I. (2023). Inflaming public debatea methodology to determine origin and characteristics of hate speech about sexual and gender diversity on Twitter. El profesional de la información, Vol. 32, No. 1, 6.
Ayllón Díaz-Gomzález, J. (2023). Espacios protegidos inteligentes, conceptos y áreas de actuación. En D. y. Vera Jurado, Espacios naturales protegidos en Andalucía, impacto de las tecnologías de la información, de la comunicación y de la inteligencia artificial en su protección y conservación (págs. 31-77). Valencia: Editorial Tirant lo Blanch.
Becerril Gil, A. (2021). Retos para la regulación jurídica de la Inteligencia Artificial en el ámbito de la Ciberseguridad. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla, Vol. 15, No. 48, 14.
Boutin, B. (2018). Technologies for International Law & International Law for Technologies. Groningen Journal of International Law, vol. 6, 7.
Brundage, M. e. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigations. Executive Summary, University of Oxford, Oxford, 13.
Calderón-Ortega, M. A. (2022). Prueba por inteligencia artificial: una propuesta de producción probatoria desde el dictamen pericial científico en Colombia. Civilizar, 22(42).
Convenio No. 108 del Consejo de Europa para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal. (1981, 28 de enero). BOE núm. 274 de 15-11-1985. Estamburgo.
Corvalán, J. (2018). Inteligencia artificial, retos desafíos y oportunidades –Prometea: La primera inteligencia artificial de Latinoamérica al servicio de la justicia. Revista de Investigações Constitucionais, Vol. 5, No. 1, 295-316.
Europea, C. (abril de 2021). Recuperado el 4 de agosto de 2023, de Reglamento Europeo de Inteligencia Artificial (IA) : https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206,
Europea, C. (2023). Recuperado el 27 de julio de 2023, de European Declaration on Digital Rights and Principles for the Digital Decade 2023/C 23/01, PUB/2023/89: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:JOC_2023_023_R_0001
Fernández Pablo, P. (2019). IBM Watson. MoleQla: Revista de Ciencias de la Universidad Pablo de Olavide, No. 34.
Gómez Rodríguez, J. (2022). Inteligencia artificial y neuroderechos. Retos y perspectivas . Cuestiones Constitucionales, Revista Mexicana de Derecho Constitucional, No. 46, 94.
Gutierrez David, M. (2022). Transparencia de los algoritmos públicos de IA. Eticidad y gobernanza de los datos. En E. García-Cuevas Roque, Estudios de ética pública (págs. 218-239). España: Editorial Thomson Reuters Aranzadi.
Heredia Yzquierdo, F. (2021). Inteligencia artificial y transición ecológica 2030: Una perspectiva europea. ICADE. Revista De La Facultad De Derecho, No. 112, 1-17.
HLEG, H.-L. E. (2019). European Comission. Recuperado el 19 de octubre de 2020, de A definition of AI: Main Capabilities and Disciplines: https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-discipline.
Krausová, A. (2017). Intersections between Law and Artificial Intelligence. International Journal of Computer, Vol. 27, No. 1, 55-68.
La Ley 15/2022, d. f. (2022). Ley integral para la igualdad de trato y la no discriminación. España: BOE de 13 de julio de 2022. Obtenido de La Ley 15/2022, de fecha 12 de julio (LA LEY 15917/2022), integral para la igualdad de trato y la no discriminación, BOE de 13 de julio de 2022.
Ley Orgánica de Protección de Datos Personales y Garantía de Derechos digitales. (2018, 6 de diciembre). Ley No. 3/2018. BOE No. 294. https://www.boe.es/buscar/act.php?id=BOE-A-2018-16673
Martínez Espín, P. (2023). La propuesta de marco regulador de los sistemas de inteligencia artificial en el mercado de la UE. Revista CESCO, No. 46, 4.
Mendoza Enriquez, O. (2021). El derecho de protección de datos personales en los sistemas de inteligencia artificial. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla, 182.
Mercader Uguina, J. (2022). La gestión algorítmica del empleo. En J. Mercader Uguina, Algoritmos e inteligencia artificial en el derecho digital del trabajo, (Primera edición ed.). Tirant lo Blanch.
Navacerra Santiago, J. (2023). Integración de los sensores OCR para la prevención e investigación de la delincuencia. Logos Guardia Civil, Revista Científica del Centro universitario de la Guardia Civil, No. 1, 347-370.
Olarte Encabo, S. (2020). La aplicación de las Inteligencia artificial a los procesos de selección del personal y ofertas de empleo: Impacto sobre el derecho a la no discriminación. Documentación Laboral, (119), 78-98.
Pérez López, J. (2023). Inteligencia Artificial y selección laboral. Revista de Estudios Jurídico Laborales y de Seguridad Social, (7), 201.
Porcelli, A. (2020). La inteligencia artificial y la robótica. Sus dilemas sociales y jurídicos. Derecho Global. Estudios sobre Derecho y Justicia, VI(16), 49-105.
Reglamento de la UE 2016/679 del Parlamento y Consejo de la Unión Europea relativo a la protección de personas físicas en lo que respecta a datos personales y a la libre circulación de estos datos. (2016, 27 de abril).
Rivas Vallejo, M. (2022). Discriminación algorítmica en el ámbito laboral. España: Editorial Thomson Reuters Aranzadi.
Robles Carrillo, M. (2020). Artificial Intelligence: From Ethics to Law. Telecommunications Policy, Volume 44, Issue 6, 7.
Rodríguez Ayuso, J. (2021). Personal data in artificial intelligence projects: main study elements. IUS ET SCIENTIA: Revista electrónica de Derecho y Ciencia, Vol. 7, No. 1, 37-47.
Rodríguez de Dios, N. e. (2023). Machine learning-based automated planning for hippocampal avoidance prophylactic cranial irradiation. Clinical & translational oncology, Vol. 25, No. 2, 503-509.
Rojo Torrecilla, E. (2023). Una política de empleo adecuada para los cambios en las relaciones laborales del siglo XXI: Estudio de la Ley 3/2023 de 28 de febrero, de Empleo. Revista de Estudios Jurídico y Laborales y de Seguridad Social(6), 30.
Soriano Amanz, A. (2023). El uso de lainteligencia artificial en la selección y gestión del personal de las administraciones públicas. Documentaciín Administrativa(9).
Surden, H. (2019). Artificial Intelligence and Law: An Overview. Georgia State University Law Review, Vol. 35, No.4, 1328.
[1]Se ha producido un avance legislativo con la promulgación de la Ley 15/2022, que aborda la igualdad de trato y no discriminación en el ámbito de la inteligencia artificial y los sistemas automatizados de toma de decisiones. Esta ley proporciona un marco de protección más amplio contra los riesgos asociados a la inteligencia artificial y el procesamiento masivo de datos, como se establece en el artículo 3.1 o. Sin embargo, a pesar de este avance, aún persisten problemas en la regulación legal, como la falta de una definición clara y precisa de los términos, lo que podría dar lugar a situaciones de atipicidad, inseguridad jurídica y lagunas en el marco normativo. Ley 15/2022, de fecha 12 de julio de 2022, Integral para la Igualdad de Trato y la no Discriminación, BOE No. 167, de fecha 13 de julio de 2022.