El acceso inmediato y constante a modelos de Inteligencia Artificial como ChatGPT está impulsando su utilización en el ámbito de la salud mental.
Así lo advierte el Colegio Oficial de Psicología de Baleares (Copib), que señala que esta tendencia puede derivar en problemas como la dependencia emocional hacia la herramienta, además de plantear dudas en cuanto a la fiabilidad y confidencialidad de las respuestas que ofrece.
Xavier Revert, responsable de la Vocalía de Psicología Clínica y de la Salud del Copib, ha señalado que la disponibilidad las 24 horas del día convierte a estas tecnologías en una opción atractiva para quienes buscan respuestas rápidas. "Cuando alguien tiene una duda, lo habitual es sacar el móvil y preguntar, obteniendo una respuesta inmediata", ha explicado.
Este comportamiento recuerda al fenómeno del llamado “doctor Google”, que durante años ha sido empleado para buscar síntomas físicos y psicológicos. En la actualidad, según Revert, esa función ha sido sustituida por modelos de lenguaje como ChatGPT, capaces de ofrecer respuestas más elaboradas basadas en bases de datos disponibles en internet.
El experto ha destacado que estos sistemas ofrecen respuestas personalizadas a medida que el usuario interactúa con ellos, lo que puede fomentar una relación emocional con la herramienta. "Las IA van adaptándose a nuestro estilo, nuestras preferencias e incluso al tono con el que queremos recibir las respuestas", ha explicado.
Revert ha advertido que las personas con una personalidad más dependiente pueden llegar a desarrollar vínculos afectivos con estos modelos, lo que aumenta el riesgo de dependencia emocional. Como ejemplo, ha citado la película Her, en la que un hombre establece una relación sentimental con un sistema de inteligencia artificial. “Todo depende del grado de vínculo que lleguemos a generar con ese diálogo”, ha apuntado.
Además, ha subrayado que la ausencia de juicio humano en las respuestas de la IA puede dar lugar a una confianza excesiva en el sistema. Según ha indicado, la falta de una mirada crítica, como la que aportaría un terapeuta o un familiar, limita la utilidad real de estas herramientas.
Otro de los riesgos señalados por Revert es la falta de fiabilidad en las respuestas que ofrecen estos sistemas. “Confiar ciegamente en lo que nos dice una IA puede ser problemático, especialmente porque acudimos a ellas por desconocimiento, sin tener herramientas para valorar si la información es correcta”, ha advertido.
Asimismo, ha remarcado la importancia de la confidencialidad en la práctica psicológica, algo que no está garantizado en el uso de estas tecnologías. "Cuando se acude a un profesional, la información sensible se trata con confidencialidad; sin embargo, desconocemos cómo se gestiona esa información en las plataformas de IA", ha explicado.
Desde el Copib se insiste en que estas herramientas deben usarse como complemento y no como sustituto del acompañamiento terapéutico. Revert ha recordado que, aunque pueden proporcionar información útil, esta debe entenderse como orientativa y no como diagnóstico profesional. "Ni siquiera cuentan con un filtro editorial o científico previo como los libros de autoayuda", ha advertido.
Además, ha puesto en valor el vínculo humano que se establece durante un proceso terapéutico, subrayando que ni la teleasistencia ni futuras herramientas con voz o apariencia física podrán reemplazar la confianza, la intimidad y la confidencialidad que se generan en una consulta presencial.