Hoy, la utilización de ChatGTP o de Gemini, está, literalmente, al alcance de la mano. Con un smartphone, y una de estas aplicaciones, podemos hacer preguntas sobre una infinidad de temas y obtener respuestas útiles para el día a día.
Pero una cosa es usar estas plataformas para modificar fotos, hacer canciones u obtener información sobre temas de la contingencia. Y otra es ocuparlas para hacer consultas que tienen que ver con temas médicos y, específicamente, de salud mental.
En este sentido, existen herramientas aplicaciones como Tess, Woebot Health, Wysa o Ginger que fueron desarrolladas especialmente para la psicoterapia, basadas en el análisis de las emociones y que, en algunos casos, permiten la realización de terapias virtuales, el control de crisis de ansiedad o ayuda para personas diagnosticadas con Trastorno por Déficit de Atención e Hiperactividad (TDAH).
La oferta de apps, ya sean gratuitas o de pago, es de fácil acceso. Tanto así que Gemini (la inteligencia artificial de Google) implementó un módulo llamado “Hay ayuda disponible”, el que según indican, fue trabajado en conjunto con personal clínico para que sus usuarios puedan ponerse en contacto con especialistas en el tema.
De esta manera, el objetivo de esta IA es que ante cualquier tipo de crisis, las respuestas brindadas animen a la ayuda de búsqueda profesional.

Ante estas posibilidades de ayuda tecnológica surge la pregunta: ¿las plataformas basadas en inteligencia artificial pueden sustituir o reemplazar a un psicólogo o a un psiquiatra para algún tipo de situación?
“No”, señala enfática a Diario Usach, Isabel Puga, psicóloga del Centro de Salud de la Universidad de Santiago. “Herramientas como Woebot o Wysa son valiosas para el monitoreo de síntomas o para entregar estrategias psicoeducativas en momentos de estrés. En palabras más simples, son ‘un buen copiloto’. Sin embargo, existe una frontera infranqueable entre la ‘gestión de datos’ y el acto clínico”, enfatiza.
La profesional sostiene la existencia de tres pilares que son irreplicables por la tecnología: la resonancia afectiva, la empatía como experiencia compartida y la comprensión de la biografía única.
El primero de dichos elementos sostiene que el encuentro terapéutico es un proceso biológico y emocional. “Cuando dos personas interactúan, se produce una sincronía donde el clínico no solamente escucha palabras, sino que ‘resuena’ con el estado emocional del otro. Esta capacidad de sintonía permite que el paciente se sienta validado, algo que un algoritmo no puede experimentar ni transmitir de forma genuina”, dice Puga.

En lo que respecta a la empatía, la psicóloga del Centro de Salud Usach, sostiene que ese concepto no apunta solamente al concepto de “tristeza”, sino que “a la capacidad de comprender el mundo interno del otro desde la propia humanidad”, explica Puga.
En síntesis, lo que hace un especialista es utilizar su intuición y sensibilidad para captar lo que está “entre líneas” (el tono de voz, el brillo en los ojos o el silencio tenso). La psicóloga indica que “la IA puede similar empatía, pero sintáctica, sin alma y carente del peso ético de alguien que realmente se conmueva con una historia”.
Y sobre el último punto (la comprensión de la biología única), Puga explica que “la IA trabaja con promedios y patrones generales. Sin embargo, el sufrimiento humano es siempre singular y está anclado a una historia personal, familiar y social”.
La especialista manifiesta que “un profesional no solo entrega una solución ya que, también, puede ayudar a construir un sentido para su vivencia. La IA puede procesar información, pero no puede testimoniar el dolor ni comprender el peso de una biografía; no sabe lo que significa tener miedo, esperanza o sentido de pertenencia”.

En términos biológicos, nuestro sistema nervioso se calma al sentirse reconocido por otro humano. Puga lo ejemplifica afirmando que “son esos ‘vínculos seguros’ los que realmente sanan” y pone acento en que la IA “carece de presencia física y emocional que nos hace sentir verdaderamente ‘vistos’”. Por lo mismo, considerar a la inteligencia artificial como “una amiga”, es un error conceptual peligroso.
PRECAUCIONES EN EL USO DE LA IA
En temáticas de salud mental, Isabel Puga pone énfasis que al usar IA, se entra en los riesgos del autodiagnóstico. “Una IA puede ‘etiquetar’ lo que le pasa a una persona basándose en promedios pero no puede hacer un diagnóstico real. Si alguien cree lo contrario, puede ver sus niveles de ansiedad aumentados e, incluso, postergar la búsqueda de la ayuda profesional necesaria”, aclara.
Por lo mismo, la psicóloga recomienda que las plataformas digitales sean consideradas “como un complemento pero no como sustituto”. “Ante malestares persistentes, la IA nunca debe reemplazar el espacio de terapia”, concluye.
Te puede interesar
Crean sitio web con información sobre centros de rehabilitación, profesionales y...
Viernes 17 de abril de 2026
Ley de Glaciares: El impacto que podrían tener en los ecosistemas compartidos...
Viernes 17 de abril de 2026
¿Una infección de muela puede deformar el brazo? Dentista explica por qué se...
Jueves 16 de abril de 2026
