Amparo Alonso, experta en IA: "La inteligencia artificial puede escribir poesía, pero no tiene sentimientos"

Amparo Alonso. XURXO LOBATO
Santiago de Compostela acoge, desde este jueves hasta el viernes, un seminario sobre ética e inteligencia artificial en el que participará la catedrática de Ciencias de la Computación de la UDC

La catedrática Amparo Alonso, profesora de Ciencias de la Computación en la Universidade da Coruña, es una de las mayores expertas europeas en ética y tecnología educativa. Fue presidenta de la Asociación Española para la Supervisión de la Inteligencia Artificial (2013-2021) y participó en la elaboración de la Estrategia Española de I+D+I en Inteligencia Artificial (2019). En el marco del Seminario Ética e IA. ¿Cambia o trasciende a la persona?, organizado por el Arzobispado de Santiago, Alonso analizará los avances y desafíos que presenta la estrategia española en materia de inteligencia artificial.

Su ponencia trata sobre la Estrategia española en el desarrollo de la IA. ¿De qué hablamos cuando utilizamos este término? 
La estrategia es la hoja de ruta que tiene el país para aprovechar la inteligencia artificial (IA) bajo los ideales de la Unión Europea. Nuestra primera estrategia fue creada en el año 2020. En aquel momento, queríamos tener una IA ética, inclusiva, competitiva y que ayudase a la productividad. Desde entonces, hemos avanzado en aspectos como la creación de empleo cualificado o las aplicaciones que se están llevando a cabo en áreas como la salud, la educación o la administración pública. En esta nueva versión de la estrategia, además, se refuerza la soberanía tecnológica, la competitividad económica y la creación de confianza en los ciudadanos.

¿Cuál es el estado actual de esta estrategia? ¿Estamos progresando o vamos rezagados?
Yo diría que nos queda mucho camino por recorrer. Sobre todo porque necesitamos métricas para trabajar con los aspectos éticos de la IA. No hablo solamente desde el punto de vista de la regulación, que en eso sí hemos avanzado, sino también de la ingeniería. Me explico. ¿Cómo valoro yo qué pasa si el rendimiento de un algoritmo es X pero su sostenibilidad es Y? No tenemos una forma estándar de hacerlo, aunque sí que hemos avanzado en el desarrollo de cátedras para tratar este tema. Además, se han constituido redes españolas de excelencia, se ha desarrollado software específico, se ha creado un sello que certifica la sostenibilidad verde y se ha puesto en marcha la Aesia, la Agencia Española de Supervisión de la Inteligencia Artificial. Pero todo esto tiene muy poco tiempo, todavía nos queda recorrido.

"La IA tiene que respetar cuestiones como la sostenibilidad, la privacidad de los datos, la ausencia de sesgos y la equidad"

¿Qué papel juega la ética en el desarrollo y la aplicación de la IA hoy en día?
La IA tiene que respetar cuestiones como la sostenibilidad, la privacidad de los datos, la ausencia de sesgos y la equidad. También debe de tener  unos mecanismos arbitrarios de responsabilidad para cuando su aplicación tenga fallos. En Europa existe una regulación que obliga a cumplir con estos parámetros, el problema de fondo es que esta regulación no está presente en otras partes del mundo. En China o Estados Unidos no cuentan con una regulación ética de la IA. ¿Quién decide qué se hace con esta herramienta? Lo hacen las compañías y los países que lo aprueban.
Un ejemplo es lo que hizo la compañía Meta. Ha quitado límites en las redes sociales para primar el derecho a la libertad de expresión y de innovación. Esto aquí no se puede hacer porque no lo aprueba la Unión Europea. La regulación es algo que demandamos los ciudadanos y más cuando vemos que una herramienta que estamos utilizando puede ser peligrosa. Hace nada se ha sabido que algunos adolescentes se han suicidado tras tener conversaciones con alguna herramienta de IA. Ahora ya están pensando qué se puede hacer para solucionarlo. 

¿Podemos tener privacidad usando herramientas de IA cuando esta se nutre de nuestras interacciones con ella?
En Europa existe una ley general de regulación de protección de datos, que ha sido controvertida y tendrá sus fallos. No sé si recuerda lo que pasó cuando salió. Todas las grandes empresas americanas se llevaron afuera los datos que tenían en Europa de los ciudadanos que no eran europeos. La regulación europea pide la privacidad de esos datos, que los ciudadanos tengan que dar su consentimiento para su uso y que podamos solicitar que se borren. Eso no está en otras regulaciones. Mientras esta regulación no entre en vigor, si tú das tu consentimiento estás alimentando con tus datos la herramienta que sea.

"La IA es capaz de hacer cosas mucho más rápido y mucho mejor que nosotros pero no tiene otras características que nosotros sí tenemos"

¿Estamos ante una herramienta que potencia las capacidades humanas o ante una tecnología que las merma?
Estamos ante una herramienta que tenemos que diseñar todavía. De hecho, es lo que estamos haciendo, y definiremos nosotros qué tenemos que hacer con la IA. Sí es cierto que hay empresas que han adoptado una IA sustitutiva, donde eliminan a los empleados que hacen trabajos administrativos. Es el caso de una financiera sueca que ahora ha tenido que readmitir a los trabajadores que despidió. Se han encontrado que la herramienta está bien pero que falta la parte humana.
Una IA puede escribir poesía, pero no tiene sentimientos. No sabe qué es la tristeza, qué es la alegría, qué es el amor. Sí que es capaz de hacer cosas mucho más rápido y mucho mejor que nosotros pero no tiene otras características que nosotros sí. Europa defiende una IA centrada en el empoderamiento de las personas, más que en una aproximación sustitutiva. 

Recuerda a lo ocurrido en la primera revolución industrial, donde las personas veían a las máquinas como enemigos que les iban a quitar el trabajo…
Claro. La IA es una revolución en ese sentido, pero no solamente es una revolución tecnológica como fue la industrial. También es una revolución social y económica porque cambia el trabajo, los tipos de empleo, la economía, la geopolítica… En el momento de la revolución tecnológica el poder estaba en el petróleo o el acero. Ahora el poder son los datos y la capacidad de cómputo.

"Antes no había cinturones de seguridad en los automóviles y con el paso de los años se han adoptado una serie de normativas. Este es el patrón que tenemos que seguir con la IA"

La IA también ha cambiado las reglas de la credibilidad. ¿Qué podemos hacer para que no se convierta en el enemigo?
El tema de las falsificaciones no es un problema exclusivo de la IA. Lo que pasa es que la IA hace falsificaciones muy perfectas, difíciles de reconocer, que se transmiten de forma muy rápida. Se está trabajando en ello desde el punto de vista técnico. Buscamos que la propia IA pueda detectar automáticamente las falsificaciones. Por otra parte, también va a requerir algún tipo de regulación y el refuerzo del espíritu crítico y el pensamiento racional. Yo comparo esto con el avance de los automóviles. Antes no había cinturones de seguridad y con el paso de los años se han adoptado una serie de normativas. Este es el patrón. Tenemos una tecnología nueva y ahora tenemos que ver cómo mejorarla, cómo aprovecharla para las personas y cómo regularla para que no sea perjudicial. 

Los beneficios de la IA o sus peligros, ¿qué pesa más en la balanza?
La IA es una tecnología muy poderosa que tiene aspectos muy positivos que no sabemos ver. Gracias a ella tenemos la posibilidad de tener una medicina personalizada o descubrir nuevos fármacos y hace que este tipo de procesos pasen de durar diez años a solo dos. Es cierto que tenemos cosas que pulir, pero nos está permitiendo hacer cosas que antes eran imposibles. Ahora podemos llegar a predecir si una persona puede tener una determinada enfermedad futura sin tan siquiera tener síntomas y prevenir sobre ello. Hay que aprovechar todos estos aspectos positivos de la IA pero teniendo cuidado de otros elementos que pueden ser negativos.