José Luis Goñi Sein, doctor en Derecho por la Universidad de Salamanca y catedrático de Derecho del Trabajo y de la Seguridad Social de la Universidad Pública de Navarra desde 1997, participó el pasado jueves en las XIII Jornadas de Derecho de la Tecnología, celebradas en la Sala de Conferencias del M. I. Colegio de Abogados de Pamplona, en las que presentó la ponencia titulada “Inteligencia artificial y derechos fundamentales”.
En su intervención, Goñi resaltó la necesidad de analizar el impacto que el uso de la Inteligencia Artificial (IA) está teniendo en la población y más en particular en el mundo de la empresa y la actividad productiva, especialmente en los derechos de los trabajadores.
¿Cuáles son los principales conflictos que plantea esta tecnología con los derechos fundamentales?
Sin descartar los múltiples efectos beneficiosos, estamos viendo que hay lagunas normativas, ya que tiene un impacto directo, puesto que puede ser aplicada con fines que pueden llevar a una situación que sea contraria a la justicia, al tratamiento igualitario… Pueden aportar sesgos y contribuir a que se den tratamientos discriminatorios.
Los principales conflictos se están dando con la igualdad y la privacidad. El algoritmo se diseña con una finalidad y encierra siempre una intención que va a ser determinante a la hora de realizar el acopio y el tratamiento de los datos. Si se parte de una serie de prejuicios o se aportan datos que no son inclusivos, puede terminar reflejando el algoritmo situaciones discriminatorias o al menos con un sesgo diferenciador. El papel del programador, del diseñador, es clave. Y en él está el origen de las potenciales situaciones de discriminación. SI los datos no son neutros, los resultados van a estar sesgados.

Esta es la otra gran cuestión. Creo que hemos perdido el control de los datos, se nos han escapado y no hay posibilidad de que la persona pueda ejercer un control de ellos. Porque ni siquiera muchas veces somos conscientes del tipo de datos que estamos facilitando, ya que para cualquier consulta o contratación de un servicio se nos pide que pongamos a disposición datos personales. Y también perdemos el control de la información derivada de la elaboración de esos datos. Perdemos incluso hasta la propia autonomía, porque a partir de los perfiles que se extraen de esos datos terminan finalmente influyendo sobre nuestras propias definiciones. Y terminamos definiendo aspectos que no somos conscientes de estar definiendo. Están en juego bastantes aspectos de los derechos fundamentales.
¿Desde la perspectiva legal, qué es lo más urgente en estos momentos?
Falta una regulación. No existe y es muy difícil por otra parte, crearla. Estamos en un mundo globalizado y haría falta que todos los estados se pusieran de acuerdo y suscribieran nada menos que un contrato social, entre las personas que ponemos esos datos voluntariamente a disposición y quienes los manejan. Y llegar a ese consenso a nivel global se antoja realmente difícil. Hay mucha amenaza de descontrol con nuestros datos. Hay una pérdida de libertad y de privacidad, y también de control de algo que nos pertenece, como son nuestros propios datos personales.
¿Cree que sería factible alcanzar este consenso al menos en la UE?
Creo que hay intentos. El hecho de que la Comisión en su momento apoyara la creación de un grupo de expertos de alto nivel y del trabajo de este grupo de expertos, significa que estamos avanzando en el camino de la unificación de criterios, al menos a nivel europeo. El problema es que está situación trasciende el ámbito territorial de la UE.
¿Hay una diferencia clara respecto al nivel de conciencia sobre este asunto de la UE y el resto de los países?
En Europa hay al menos sensibilidad por este tema, por el control y la protección de los datos. Pero hay países asiáticos, China fundamentalmente, en los que a esto no se le otorga ningún valor. Y nos encontramos con la tecnología llevada a sus últimos extremos. Nosotros de alguna manera tratamos de utilizar la tecnología dentro de un orden, respetando los derechos, la democracia… Que no vaya más allá, que no se use de manera maliciosa o perversa, por ejemplo, para influenciar en decisiones de carácter electoral o político, como ha ocurrido. Estos son los límites que se quiere marcar. Por una parte, hacer frente a la vulnerabilidad individual y por otra parte hacer frente a la vulnerabilidad de la propia sociedad que, inconscientemente, se puede ver llevada a un ámbito en el que pierda el control.
¿Cuál puede ser el papel de la abogacía en este desarrollo?
Los abogados tenemos que seguir de cerca toda la evolución y desarrollo de la IA. Y tenemos que profundizar en esta línea de establecer límites al uso, al diseño y la aplicación de estos sistemas. Creo que nos corresponde, junto a los expertos, establecer los límites. Y también exigir que se cumplan. Y en la medida en que tengamos recursos, los instrumentos normativos, exigir los derechos que esos instrumentos normativos, al menos a nivel europeo, han previsto. Creo que ese es en este sentido nuestro papel.
“El legislador tiene un reto a la hora de determinar y desarrollar un marco normativo que proteja a los consumidores”.
Asimismo, participó en el programa el abogado especialista en Derecho de Internet y de las nuevas tecnologías Francisco Perez Bes, que intervino por videoconferencia. El que fuera hasta junio de 2019 secretario General del Instituto Nacional de Ciberseguridad de España (INCIBE), y actualmente miembro del despacho Gómez Acebo – Pombo, presentó la ponencia “Derechos digitales en la era de la inteligencia artificial”.
Pérez Bes comenzó su intervención recordando que el desarrollo de la IA no se está dando “en un mundo sin leyes” y recalcó que, tanto en su desarrollo como en su aplicación en el día a día, “va a tener que conformarse a los límites deontológicos y éticos”.
En segundo lugar, destacó la necesidad de “adaptar esta tecnología a los marcos legislativos actualmente existentes”, respecto a la seguridad del producto y la responsabilidad del fabricante, dentro de la esfera del Derecho del Consumo.
En cualquier caso, reconoció que el legislador europeo tiene un reto por delante a la hora de determinar y desarrollar un marco normativo que proteja a los consumidores del uso de la IA.
En este sentido, consideró que lo que hace falta “no es una regulación rígida e inflexible, sino todo lo contrario”, dada la propia naturaleza de la IA, hasta el punto en que la normativa tenga la suficiente flexibilidad para no penalizar la innovación ni las necesidades de seguridad de una tecnología de esta naturaleza.
“¿Qué hacer con todo esto? Mirando hacia atrás, podemos ver qué soluciones se han dado en situaciones en las que ha aparecido una tecnología disruptiva”. Y se refirió concretamente al nacimiento del vehículo a motor, “una tecnología que obligó a desarrollar una normativa que regulaba necesidades totalmente nuevas” y que en su momento supuso un gran reto para el legislador, que se vio obligado a regular esta disrupción y adecuarla, además, a la legislación ya existente, que ordenaba el transporte a caballo. “No solo se trata de adaptar la normativa a la tecnología, sino también de adaptar la tecnología a la normativa existente”.
Y siguiendo con el ejemplo, Perez Bes se refirió a la introducción de vehículos autónomos en el mercado de EE. UU., que obligó a los fabricantes a incluir un volante en los vehículos autónomos para adaptarlos a la normativa vigente, aunque no fuera estrictamente necesario para la operativa real del vehículo. Del mismo modo, expuso, “habrá que adecuar esos algoritmos” a la normativa existente.
“Respecto a la IA, la primera prioridad del legislador ha de ser la protección de los Derechos Humanos. Lo que se está tratando de hacer es de desarrollar un marco legal adecuado tanto legal como ético”, basado en la Carta de Derechos Fundamentales de la UE. “Esa será la base sobre la que la IA va a tener que desarrollarse”, expuso.
Al finalizar las intervenciones, tuvo lugar una mesa redonda de ponentes, moderada por Olivier Izal, presidente de la Comisión del Derecho de la Tecnología del MICAP. Y finalmente, tuvo lugar el acto de clausura.