El riesgo de la IA como confidente de los más jóvenes: cuando "el texto sin contexto" reemplaza al psicólogo
Uno de cada diez jóvenes de entre 12 y 16 años usa la inteligencia artificial para desahogarse y contar sus problemas. Este es un hábito que para Marta Moral, psicóloga clínica del Sergas, plantea ciertas amenazas como el incremento del aislamiento social
Es un día cualquiera. Estás en tu habitación, rodeado de silencio, y tienes un problema que no sabes a quién confiar. No quieres contárselo a tus padres, tampoco a tus amigos; temes que no lo entiendan, o quizá simplemente es que no te atreves. Entonces tomas el móvil, o el ordenador, y entras en internet. Has oído hablar de ChatGPT. Abres la página y comienzas a escribir todo aquello que no te atreves a decir en voz alta. De pronto, te sientes escuchado y aconsejado y, sin darte cuenta, poco a poco conviertes esto en un hábito.
Aunque se trate de un ejemplo ficticio, esta rutina podría ser la de tantos y tantos jóvenes hoy en día. Y es que cada vez son más quienes utilizan la inteligencia artificial generativa como vía de escape. Las investigaciones lo corroboran. El informe Así somos: el estado de la adolescencia en España 2025, elaborado por la ONG Plan Internacional, revela que uno de cada diez jóvenes de entre 12 y 16 años utiliza esta tecnología como confidente. Un dato que se eleva hasta cuatro de cada diez en el caso de chicas de entre 17 y 21 años.
Asimismo, un estudio publicado en la revista Harvard Business Review señala que el uso con fines terapéuticos o como acompañamiento emocional es el primer motivo por el que la generación Z utiliza la inteligencia artificial. En segundo lugar, aparece la necesidad de emplear esta herramienta como ayuda a la hora de organizar la vida diaria y, en tercero, su uso como orientación para encontrar un sentido y propósito vital.
Marta Moral, psicóloga clínica en el Sergas, tacha de “alarmante” esta situación y asegura que “deberíamos de preguntarnos qué está fallando para que un amigo o un familiar inicie un proceso emocional con una IA”. La profesional considera que esta tendencia va a ir generando “una sociedad más aislada” ya que el sufrimiento es “una de las cosas que más nos conectan con los demás” y cada vez más “lo vamos dejando escondido en el fondo de un cajón”.
¿Por qué usamos esta herramienta?
El uso de la inteligencia artificial generativa como confidente es, según la experta, una conducta que responde a múltiples factores que se entrelazan entre sí. La inmediatez que aporta es una de las razones. Esta herramienta está “disponible las 24 horas del día los 7 días de la semana, algo que es inviable a nivel profesional o con amigos y familia”. A ello se suma el componente económico, ya que “no todo el mundo puede costearse lo que vale una sesión de psicología” y para muchos “este es el único recurso que tienen”, asegura.
También conviene hablar de la ausencia de capacidad crítica que posee esta tecnología. Moral advierte que “la IA responde conforme a lo que sabe de nosotros”, por lo que tiende a “agradar” y a “no confrontar ciertas ideas”. Una cualidad de complacencia que elimina la fricción y refuerza su uso para tratar asuntos “que nos angustian” sin “sentirnos juzgados”, algo que quizás se perciba como probable en el entorno social próximo.
Estrechamente relacionado a esto se encuentra la sensación, cada vez más extendida, que muchas personas poseen de “encontrarse solas y no tener una red de apoyo emocional”. Un hecho “preocupante” que para la psicóloga refleja “la ausencia de un tejido social que sostenga estas situaciones y la tendencia a la individualización de problemas que son colectivos”. Lo cierto es que, de nuevo, los datos respaldan estas afirmaciones.
El Barómetro de la soledad no deseada en España 2024, desarrollado por la Fundación Once y la Fundación Axa, revela que uno de cada cuatro adolescentes españoles de entre 16 y 19 años se siente solo en la actualidad -proporción que asciende hasta casi cuatro de cada diez en el caso de los gallegos de entre 18 y 34 años- y que aproximadamente siete de cada diez reconocen haber experimentado la soledad en algún momento de su vida.
Estas cifras se vuelven más alarmantes si se tiene en cuenta el estado de salud mental entre los jóvenes. El Estudo lonxitudinal para unha infancia saudable, impulsado por investigadores del Instituto de Psicoloxía da USC, ha detectado en ellos “un incremento notable de emocións como ansiedade, medo ou tristura tras a pandemia da Covid-19”. Asimismo, una encuesta realizada por el Servizo Galego de Saúde en 2024 asegura que más de tres de cada diez menores de 25 años podría sufrir ansiedad o depresión.
¿Cuáles son los riesgos de esta tecnología?
A la hora de hablar de riesgos, es importante tener en cuenta el poco recorrido temporal que tiene la inteligencia artificial generativa. Una de sus aplicaciones más conocidas, Chat GPT, salió en noviembre de 2022, mientras que Gemini, la herramienta de Google, apareció en diciembre de 2023. Durante este último año, las redes sociales también incorporaron sus propios asistentes conversacionales: X lo hizo a finales de 2024, y WhatsApp, Facebook e Instagram -todas pertenecientes a Meta- los implementaron en marzo de 2025.
A pesar de que, tal y como recuerda Morales " aún no se conocen muy bien las consecuencias que su uso puede tener a medio y largo plazo”, ya se pueden intuir ciertos riesgos a partir de las características ya mencionadas. El hecho de que la IA no confronte al usuario y tienda a “reforzar sus ideas” puede llegar a “influir en la manera de relacionarnos o ver las cosas”, asegura.
Asimismo, la facilidad con la que esta tecnología facilita hablar de ciertos temas difíciles puede impedir, según la experta, que las personas no reciban “respuestas empáticas y comprensivas que los hagan sentir más aliviados” como sí ocurre cuando se habla con otro ser humano. Utilizar la IA como consejero también podría hacer que a muchos usuarios les cueste más dar el paso para iniciar una terapia. “Yo no lo he vivido, pero tengo compañeros que han hablado sobre esto con sus pacientes en consulta”, recalca.
Esta situación puede ser problemática porque una herramienta automática nunca podrá sustituir a un profesional ya que, en palabras de Moral, “es texto sin contexto”. ChatGPT, por ejemplo, puede ofrecer a quien lo consulte “tres pautas que también le va a dar a tu vecina o a un familiar que tenga otros problemas diferentes” pero no podrá percatarse “de síntomas o causas” que el psicólogo sí detecta. La experta tiene claro que “cuando una persona acude a consulta, tú ves una historia”, algo que una inteligencia artificial no puede replicar.
¿Puede Chat GPT reforzar la depresión?
El uso de la IA por parte de la juventud ya ha generado polémica en países como Estados Unidos, donde se han reportado episodios sobre menores de edad con problemas de salud mental que mantenían conversaciones frecuentes con asistentes conversacionales. Uno de los casos más conocidos es el suicidio de Adam Raine, un adolescente de 16 años de California. Su familia afirmó que el joven estaba atravesando una depresión y que el uso de ChatGPT contribuyó a su aislamiento.
Desde la empresa que desarrolla esta aplicación, OpenAI, desmintieron categóricamente las acusaciones y anunciaron que tomarían medidas adicionales para aumentar la seguridad de su bot conversacional en estas situaciones. Aún así la compañía asegura que, a la semana, casi medio millón de usuarios de todo el mundo mantienen charlas relacionadas con las autolesiones con su herramienta de IA.
La psicóloga Moral tiene claro que “vulnerabilidad” y “la falta de percepción del riesgo” son dos factores muy influyentes a la hora de sufrir los peligros de la IA. Algo para lo que tienen “mayor predisposición los jóvenes por un proceso madurativo biológico”, pero de lo que los adultos no están indemnes. “Creer que estamos exentos, que no nos va a pasar, nos impide estar alerta” advierte.