¿Puede una inteligencia artificial escuchar de verdad?

Sergi Vilardell Falcon colegiado COPC

Artículo escrito por:

Sergi Vilardell Falcon

Psicólogo Colegiado Nº 18455 (COPC)

La inteligencia artificial conversa con nosotros de manera cada vez más convincente. Chatbots, asistentes virtuales y modelos de lenguaje generan respuestas que parecen empáticas y comprensivas. Pero surge una pregunta central: ¿puede una máquina escuchar como lo hace un ser humano, o solo reproduce patrones que simulan atención y comprensión? Esta duda aparece cada vez más en nuestra clínica psicológica Viher, donde la escucha sigue siendo un acto profundamente humano.

En la práctica clínica, escuchar no es procesar información: implica resonar con lo que no se dice, acompañar la palabra en su doblez y acoger la singularidad de cada sujeto. Este acto no puede ser reducido a predicciones estadísticamente verosímiles, del mismo modo que no basta con “saber datos” para decidir cuándo ir al psicólogo, tema que abordamos con más detalle en el artículo saber cuándo ir al psicólogo.

Qué significa ‘escuchar’ en psicología clínica y en la vida cotidiana

Escuchar va más allá de oír. Implica crear un espacio donde la palabra pueda desplegarse sin prisa y sin juicios inmediatos, algo que forma parte tanto de la vida cotidiana como del trabajo clínico con niños, adolescentes y adultos.

  • Reconocer lo que el sujeto dice y lo que se resiste a decir.
  • Captar silencios, vacilaciones y repeticiones que revelan el deseo inconsciente.
  • Establecer un espacio simbólico donde la palabra puede desplegarse y transformarse.

En la psicoterapia psicoanalítica, la escucha activa es el medio por el que el sujeto puede inscribir su experiencia y atravesar su malestar, más allá de la literalidad del lenguaje. La máquina, por muy sofisticada que sea, carece de esta capacidad de resonancia: puede generar eco, pero no sostener el lazo que permite que el sentido emerja.

inteligencia artificial escucha

Cómo ‘escucha’ una IA: tokens, probabilidad y patrones lingüísticos

La IA no escucha: procesa. Divide el texto en unidades mínimas, calcula probabilidades y genera la palabra más probable según patrones previos. Los modelos de lenguaje ajustan sus respuestas a la coherencia estadística y a la consistencia del contexto, algo muy distinto a la escucha de un malestar que aumenta de forma silenciosa, como sucede en muchos casos descritos en el artículo sobre el preocupante aumento de la ansiedad en la población.

Esta pseudoempatía algorítmica puede dar la ilusión de comprensión, pero no se trata de una experiencia emocional ni de una interpretación de la subjetividad. Lo que percibimos como escucha es una proyección del usuario sobre la máquina, no un encuentro con otro que pueda recibir y transformar la palabra, algo que exploramos también en las reflexiones clínicas reunidas en Das Unheimlich.

Empatía humana vs. pseudoempatía algorítmica: diferencias clave

La empatía humana combina afecto, cognición y escucha del deseo. Permite interpretar silencios, ambigüedades y contradicciones que son constitutivas de la experiencia subjetiva. Esta dimensión se hace especialmente visible en los vínculos de pareja, donde la forma de escuchar y ser escuchado puede convertirse en fuente de conflicto o de transformación, como se plantea en el texto sobre terapia de pareja y deseo.

La IA, en cambio, ofrece respuestas coherentes, predictivas y funcionales, pero incapaces de acoger la palabra en su dimensión simbólica. Su “empatía” no puede sostener transferencia, ni tolerar la incertidumbre del lenguaje humano, ni abrir el espacio de significación que la clínica requiere cuando el sufrimiento se vuelve insistente y difícil de nombrar.

Riesgos y límites: sesgos, alucinaciones y confidencialidad de datos

El uso de IA en salud mental conlleva riesgos importantes: sesgos algorítmicos, alucinaciones de modelo, uso inadecuado de datos sensibles, entre otros. Por eso es necesario situar estas herramientas en un marco crítico e informado, como el que se desarrolla en las distintas noticias y materiales clínicos publicados en la sección de nuestro blog sobre psicología.

  • Sesgos algorítmicos, que reproducen prejuicios o limitan la diversidad de interpretaciones.
  • Alucinaciones de modelo, que producen información errónea pero plausible.
  • Confidencialidad y manejo de datos sensibles, que plantean desafíos éticos y legales.

Estos riesgos subrayan que la máquina no puede sustituir la experiencia del análisis: lo que se juega en la palabra —deseo, conflicto, interpretación— no es cuantificable ni predecible. Situaciones de gran vulnerabilidad, como las que se ponen en juego en un brote psicótico, evidencian la necesidad de una presencia clínica que sostenga al sujeto más allá de cualquier cálculo automático.

Cuándo puede ayudar una IA conversacional y cuándo recurrir a la clínica

Los sistemas conversacionales pueden ofrecer un acompañamiento instrumental: orientar, educar o registrar información, facilitar acceso a recursos y organizar datos. Pero cuando lo que está en juego es el malestar subjetivo, la tentación de buscar soluciones rápidas —como ocurre con la ansiedad— suele requerir algo más que respuestas automáticas, y ahí cobran relevancia reflexiones como las de cómo superar la ansiedad sin medicamentos.

La IA puede funcionar como un auxiliar: puede guiar, ordenar, sugerir caminos, pero no puede constituir un lazo ni soportar la palabra en su incertidumbre. La dimensión del deseo, la ambigüedad y la transferencia requieren una presencia que escuche más allá del sentido literal. Esa presencia se vuelve también fundamental en contextos donde alguien debe gestionar un equipo de personas y enfrentarse al malestar que recorre las organizaciones, como desarrollamos en el artículo cómo gestionar a un equipo de personas.

En este sentido, la integración más fructífera es aquella en la que la IA acompaña y facilita, pero el sujeto sigue encontrando en la clínica el espacio donde su palabra puede tomar forma y sentido, donde lo imposible de prever puede ser escuchado y trabajado. Entre la emoción y el dato, entre la predicción y el deseo, se juega el futuro responsable de la práctica clínica en la era digital, siempre que el eje siga siendo el trabajo con psicólogos de adultos especializados capaces de sostener una escucha verdaderamente humana.

Noticias Relacionadas

la mentira en los niños

La mentira en los niños

La psicoanalista Françoise Dolto respondía, en el programa de radio France-Inter, a las preguntas que le dirigían los padres sobre la educación de sus hijos. En este caso le preguntaban sobre la mentira en los niños.
Periodista: En varias cartas le piden por fin que hable usted de la mentira. Aquí tengo la de

Leer más »
brote psicótico

Brote psicótico

Sabemos que el consumo de drogas puede desencadenar brotes psicóticos, especialmente entre los adolescentes. Concretamente el cannabis conlleva un riesgo en este sentido, especialmente si tenemos en cuenta que ya ha tenido un antecedente como el que menciona a la edad de 17 años.

Leer más »
Scroll al inicio