¿Puede una inteligencia artificial escuchar de verdad?

Sergi Vilardell Falcon colegiado COPC

Artículo escrito por:

Sergi Vilardell Falcon

Psicólogo Colegiado Nº 18455 (COPC)

La inteligencia artificial conversa con nosotros de manera cada vez más convincente. Chatbots, asistentes virtuales y modelos de lenguaje generan respuestas que parecen empáticas y comprensivas. Pero surge una pregunta central: ¿puede una máquina escuchar como lo hace un ser humano, o solo reproduce patrones que simulan atención y comprensión? Esta duda aparece cada vez más en nuestra clínica psicológica Viher, donde la escucha sigue siendo un acto profundamente humano.

En la práctica clínica, escuchar no es procesar información: implica resonar con lo que no se dice, acompañar la palabra en su doblez y acoger la singularidad de cada sujeto. Este acto no puede ser reducido a predicciones estadísticamente verosímiles, del mismo modo que no basta con “saber datos” para decidir cuándo ir al psicólogo, tema que abordamos con más detalle en el artículo saber cuándo ir al psicólogo.

Qué significa ‘escuchar’ en psicología clínica y en la vida cotidiana

Escuchar va más allá de oír. Implica crear un espacio donde la palabra pueda desplegarse sin prisa y sin juicios inmediatos, algo que forma parte tanto de la vida cotidiana como del trabajo clínico con niños, adolescentes y adultos.

  • Reconocer lo que el sujeto dice y lo que se resiste a decir.
  • Captar silencios, vacilaciones y repeticiones que revelan el deseo inconsciente.
  • Establecer un espacio simbólico donde la palabra puede desplegarse y transformarse.

En la psicoterapia psicoanalítica, la escucha activa es el medio por el que el sujeto puede inscribir su experiencia y atravesar su malestar, más allá de la literalidad del lenguaje. La máquina, por muy sofisticada que sea, carece de esta capacidad de resonancia: puede generar eco, pero no sostener el lazo que permite que el sentido emerja.

inteligencia artificial escucha

Cómo ‘escucha’ una IA: tokens, probabilidad y patrones lingüísticos

La IA no escucha: procesa. Divide el texto en unidades mínimas, calcula probabilidades y genera la palabra más probable según patrones previos. Los modelos de lenguaje ajustan sus respuestas a la coherencia estadística y a la consistencia del contexto, algo muy distinto a la escucha de un malestar que aumenta de forma silenciosa, como sucede en muchos casos descritos en el artículo sobre el preocupante aumento de la ansiedad en la población.

Esta pseudoempatía algorítmica puede dar la ilusión de comprensión, pero no se trata de una experiencia emocional ni de una interpretación de la subjetividad. Lo que percibimos como escucha es una proyección del usuario sobre la máquina, no un encuentro con otro que pueda recibir y transformar la palabra, algo que exploramos también en las reflexiones clínicas reunidas en Das Unheimlich.

Empatía humana vs. pseudoempatía algorítmica: diferencias clave

La empatía humana combina afecto, cognición y escucha del deseo. Permite interpretar silencios, ambigüedades y contradicciones que son constitutivas de la experiencia subjetiva. Esta dimensión se hace especialmente visible en los vínculos de pareja, donde la forma de escuchar y ser escuchado puede convertirse en fuente de conflicto o de transformación, como se plantea en el texto sobre terapia de pareja y deseo.

La IA, en cambio, ofrece respuestas coherentes, predictivas y funcionales, pero incapaces de acoger la palabra en su dimensión simbólica. Su “empatía” no puede sostener transferencia, ni tolerar la incertidumbre del lenguaje humano, ni abrir el espacio de significación que la clínica requiere cuando el sufrimiento se vuelve insistente y difícil de nombrar.

Riesgos y límites: sesgos, alucinaciones y confidencialidad de datos

El uso de IA en salud mental conlleva riesgos importantes: sesgos algorítmicos, alucinaciones de modelo, uso inadecuado de datos sensibles, entre otros. Por eso es necesario situar estas herramientas en un marco crítico e informado, como el que se desarrolla en las distintas noticias y materiales clínicos publicados en la sección de nuestro blog sobre psicología.

  • Sesgos algorítmicos, que reproducen prejuicios o limitan la diversidad de interpretaciones.
  • Alucinaciones de modelo, que producen información errónea pero plausible.
  • Confidencialidad y manejo de datos sensibles, que plantean desafíos éticos y legales.

Estos riesgos subrayan que la máquina no puede sustituir la experiencia del análisis: lo que se juega en la palabra —deseo, conflicto, interpretación— no es cuantificable ni predecible. Situaciones de gran vulnerabilidad, como las que se ponen en juego en un brote psicótico, evidencian la necesidad de una presencia clínica que sostenga al sujeto más allá de cualquier cálculo automático.

Cuándo puede ayudar una IA conversacional y cuándo recurrir a la clínica

Los sistemas conversacionales pueden ofrecer un acompañamiento instrumental: orientar, educar o registrar información, facilitar acceso a recursos y organizar datos. Pero cuando lo que está en juego es el malestar subjetivo, la tentación de buscar soluciones rápidas —como ocurre con la ansiedad— suele requerir algo más que respuestas automáticas, y ahí cobran relevancia reflexiones como las de cómo superar la ansiedad sin medicamentos.

La IA puede funcionar como un auxiliar: puede guiar, ordenar, sugerir caminos, pero no puede constituir un lazo ni soportar la palabra en su incertidumbre. La dimensión del deseo, la ambigüedad y la transferencia requieren una presencia que escuche más allá del sentido literal. Esa presencia se vuelve también fundamental en contextos donde alguien debe gestionar un equipo de personas y enfrentarse al malestar que recorre las organizaciones, como desarrollamos en el artículo cómo gestionar a un equipo de personas.

En este sentido, la integración más fructífera es aquella en la que la IA acompaña y facilita, pero el sujeto sigue encontrando en la clínica el espacio donde su palabra puede tomar forma y sentido, donde lo imposible de prever puede ser escuchado y trabajado. Entre la emoción y el dato, entre la predicción y el deseo, se juega el futuro responsable de la práctica clínica en la era digital, siempre que el eje siga siendo el trabajo con psicólogos de adultos especializados capaces de sostener una escucha verdaderamente humana.

Noticias Relacionadas

Nota sobre la serie Televisiva “The Young Pope”

Nota sobre la serie Televisiva “The Young Pope”

Lenny Belardo, Papa Pío XIII en la serie televisiva The Young Pope, no consigue creer en Dios justamente porque sabe de su existencia. “El papa no cree en Dios”, afirman aquellos que conspiran contra él por considerarlo un peligro para la Iglesia, pero que en cambio no han entendido nada de de las vicisitudes de

Leer más »
seminario das unheimlich

Das unheimlich

Das unheimlich, es un artículo que nunca, nunca he oído comentar, y del que nadie parece advertir que es la clavija fundamental para abordar la cuestión de la angustia. Seminario X, J. Lacan.
El 12 de mayo de 1919, cuando está inmerso en la escritura de “Más allá del Principio del Placer”, Freud escribe

Leer más »
Scroll al inicio