“Hemos progresado muy deprisa, pero nos hemos encarcelado a
nosotros mismos. El maquinismo, que crea abundancia, nos deja en la necesidad.
Nuestro conocimiento nos ha hecho cínicos. Nuestra inteligencia, duros y secos.
Pensamos demasiado, sentimos muy poco. Más que máquinas necesitamos más
humanidad. Más que inteligencia, tener bondad y dulzura”. Son reflexiones del
monólogo final de la película ‘El gran dictador’, de Charles Chaplin, que Olivier
Izal, presidente de la Comisión de Derecho de las Tecnologías del M.I. Colegio
de Abogados de Pamplona, recordó durante la apertura de las XIII Jornadas de
Derecho de la tecnología, celebradas recientemente bajo el lema ‘Inteligencia
artificial: Como afecta a tus derechos’.
Eduardo Santos, Blanca Ramos y Olivier Izal abrieron las jornadas. |
La película va a cumplir 80 años pero su monólogo parece
dirigido a advertirnos sobre los riesgos que corremos con una inteligencia
artificial (IA) mal utilizada. Izal señaló que la inteligencia artificial “nos puede
proporcionar mayor bienestar, el problema es la estupidez humana” que la usa
con fines no dignos ni nobles, como una herramienta de control al servicio del
poder o por parte de organizaciones no democráticas. Añadió que la IA va a
transformar el mundo y que por eso “debe estar al servicio de los derechos
fundamentales de las personas”, un objetivo por el que exhortó a luchar a los
profesionales de la abogacía.
También participaron en la apertura de las jornadas la
decana Blanca Ramos, que dio la bienvenida a los asistentes, y el consejero de
Políticas Migratorias y Justicia del Gobierno de Navarra, Eduardo Santos, quien
comenzó por señalar que hemos pasado de contemplar con ingenuidad el
ciberactivismo a la “ciberpreocupación”. Expuso que la tecnología no es
ideológicamente inocua y planteó que al regirse por “fríos algoritmos” da respuestas
parecidas o iguales a cuestiones y situaciones que no lo son. Por eso reclamó
una regulación desde el Derecho, “que es la forma de organizar las sociedades”.
El consejero indicó que los y las abogadas son la “avanzada”
en la defensa de los derechos de las personas y que también son los primeros a
los recurren quienes se ven afectados por los abusos de quienes manejan la IA,
al tiempo que se comprometía a seguir con atención desde su departamento el
problema “de la misma forma que trataremos de dar respuesta a esta y cuantas
cuestiones nos haga llegar la sociedad”.
Un humano inteligente
Tras la apertura y presentaciones llegó el turno del primer
ponente, Humberto Bustince Sola, licenciado en Ciencias Físicas, doctor en
Matemáticas, profesor e investigador de la Universidad Pública de Navarra y una
de las máximas personalidades más influyentes del mundo en el campo de la
lógica intuicionista difusa o borrosa, además de haber recibido el premio
nacional de informática. “El objetivo de mi charla es meter miedo, que salgáis
siendo conscientes de que tenemos un problema muy gordo”, dijo al iniciar su
intervención, y desde luego sus razonamientos alarmaron a quienes le
escucharon.
Humberto Bustince, durante su intervención. |
Tras definir la IA como "la ciencia que trata de hacer
máquinas que hacen cosas que, si las hiciera una persona, diríamos que esa
persona es inteligente", Bustince defendió que, desde el punto de vista
legal, el problema no está en la IA sino en los datos que la alimentan, hasta
el punto de que quien los maneja "puede dominar el mundo". Aseguró
que el gran peligro de la IA para la humanidad es que se le dé acceso total a los
datos digitales o ‘big data’, porque incluyen aspectos personales y eso se
traduciría en la desaparición de la privacidad, algo que ya ocurre porque queda
constancia de todo lo que hacemos con el móvil, generamos datos que alguien
recoge y después utiliza, como demostró con inquietantes ejemplos. Por eso
reclamó una regulación que incida principalmente en las leyes y la ética “que
es donde más estamos fallando”.
“Cada dos años los datos digitalizados se multiplican por
dos, y su tratamiento es lo preocupante”, apuntó Bustince, quien añadió que la
competencia tecnológica entre Estados Unidos y China hace que prescindan de consideraciones
éticas, y como Europa intenta hacer una regulación mucho más estricta corre el
peligro de quedarse por detrás, “en realidad es una guerra que ya hemos
perdido”, lamentó.
La IA, bien utilizada, tiene unas aplicaciones
revolucionarias: ya detecta mejor el cáncer de piel que un dermatólogo, e
incluso el de mama. Puede predecir la depresión de un adolescente con un 96% de
precisión, pero insistió el ponente que todavía no hay nada legislado sobre su
uso en el campo de la medicina por lo que nuestros datos sanitarios también
pueden caer en manos de organizaciones con intereses ajenos a la salud.
Humberto Bustince expuso un ejemplo de ese doble uso de la
IA. Indicó que participó en el desarrollo de una herramienta para la
desaparecida Caja Navarra que predecía posibles casos de morosidad entre sus
clientes, lo que le ayudaba a tomar medidas preventivas. “Ese programa, muy
mejorado, se utiliza ahora en China a lo bestia”, y se traduce en decisiones
tan dudosas como no permitir el acceso a la universidad de un estudiante, que
ha aprobado el correspondiente examen, porque un sistema de reconocimiento
facial combinado con los datos que se tienen de él alerta de que puede ser
peligroso a ojos de las autoridades. “Es terrible, la privacidad no existe”,
insistió el ponente antes de concluir planteando la pregunta del precio que
estamos dispuestos a pagar por vivir en una ciudad segura.