Un estudio descarta que ChatGPT cause adicción

Un equipo internacional de investigadores, entre los que se encuentra la Universitat de València, ha desmontado científicamente la idea de que el uso de herramientas de Inteligencia Artificial como ChatGPT pueda considerarse una adicción comparable a la provocada por sustancias como el alcohol o la cocaína.
Frente a recientes titulares que han sembrado alarmismo en este sentido, el estudio publicado en la revista científica Addictive Behaviors desmiente que exista evidencia clínica sólida que respalde esa hipótesis.
El equipo, integrado por Víctor Ciudad-Fernández (Universitat de València), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne), ha analizado los instrumentos utilizados en estudios que pretendían demostrar la supuesta adicción a los chatbots de IA. La principal conclusión del análisis revela que dichas investigaciones han extrapolado de forma errónea escalas clínicas propias de adicciones severas, aplicándolas a conductas de uso cotidiano sin consecuencias significativas.
“Se están usando conceptos como tolerancia o síndrome de abstinencia para medir el uso frecuente de un chatbot, lo cual es como diagnosticar adicción al baile usando los mismos criterios que para la heroína”, ironiza Víctor Ciudad, miembro del grupo I-PSI-TEC de la Universitat de València.
Uso intensivo no es sinónimo de patología
Los investigadores señalan que no se han hallado pruebas de deterioro funcional grave ni consecuencias negativas relevantes asociadas al uso habitual de ChatGPT. Por el contrario, su empleo suele relacionarse con la búsqueda de información, la resolución de dudas, el aprendizaje o incluso el afrontamiento emocional en contextos de estrés.
A juicio de los autores, el verdadero riesgo reside en la tendencia contemporánea a sobrediagnosticar y medicalizar conductas normales, fenómeno que califican de “sobrepatologización”. Ciudad recuerda que en el último siglo ha habido oleadas de pánico moral asociadas a tecnologías emergentes, desde la radio hasta Internet, ninguna de las cuales ha sido finalmente considerada clínicamente adictiva según criterios sólidos.
Evitar el estigma y regular con rigor
Etiquetar como adictiva una herramienta como ChatGPT, alertan los expertos, puede derivar en efectos no deseados: la estigmatización de usuarios intensivos, el diseño de tratamientos innecesarios y la promoción de normativas sin sustento científico. En lugar de fomentar discursos alarmistas, el estudio propone un enfoque más sereno y reflexivo.
“La cuestión no es si usamos mucho o poco la inteligencia artificial, sino cómo y para qué lo hacemos”, concluyen los investigadores, que instan a orientar el debate público hacia un uso consciente, autónomo y libre de etiquetas estigmatizantes que, lejos de ayudar, desvirtúan el concepto mismo de adicción.