Premiado un proyecto de la USC para tratar las "alucinacións" que padece la IA

Los investigadores del Citius de la USC Alberto Bugarín, José María Alonso, Alejandro Catalá y Pablo Miguel Pérez. EP
Investigadores del Citius proponen un sistema que aporta reglas lógicas para que desarrolle un "sentido común" que le permita entender las "imprecisións" del lenguaje humano

La inteligencia artificial, en ocasiones, es aún un recién nacido que balbucea. Así, "generar explicacións precisas e libres de erros, que sexan comprensibles" es uno de los grandes retos para los ingenieros. Hacia ello se dirige el proyecto de José María Alonso, Pablo Miguel Pérez, Alejandro Catalá y Alberto Bugarín, del Centro Singular de Investigación en Tecnoloxías Intelixentes (Citius) de la Universidade de Santiago (USC), premiado con un tercer puesto en un concurso de la IEEE Computational Intelligence Society.

La IA generativa –aquella que entrega textos, imágenes y otros a partir de unos comandos– a veces sufre "alucinacións", es decir, respuestas que parecen fiables pero que contienen información incorrecta o directamente inventada, explica la USC. 

El proyecto del Citius pretende que la máquina aprenda a manejar conceptos algo vagos –como alto, bajo o aproximadamente– pero que forman parte de la comunicación humana cotidiana. Para ello, combina modelos de lenguaje con "sistemas baseados en lóxica difusa" para proporcionarle reglas que permiten traducir elementos subjetivos en "valores numéricos concretos" o que otorga a la IA "a capacidade de razoamento aproximado, ou de sentido común", para manejar esa "imprecisión" humana.

"Se se observa algo moi semellante a A, entón podemos predicir que ocorrerá algo moi semellante a B", ejemplifica.

Además, el sistema que proponen incorpora herramientas para recuperar información relevante de grandes bases de datos "e adaptar as respostas ao contexto específico de cada usuario".

Aplicaciones en sanidad, educación, justicia o finanzas

La Flame Technical Challenge 2024 reconoció con ello la capacidad de esta investigación para revolucionar el uso de modelos de lenguaje en contextos críticos donde la capacidad de ser comprensible y de ser preciso y fiable es crucial.

Es el caso de inteligencia artificial que se emplee en la toma de decisiones en el ámbito de la salud, la educación, la evaluación de riesgos en el sector financiero o el análisis de datos legales en procesos judiciales, entre otros, cita la universidad compostelana.