Un editorial publicado en 'BMJ Evidence Based Medicine' advierte de los riesgos que el uso intensivo de la IA generativa puede generar en la capacitación de los futuros médicos.
Un grupo de especialistas de la Universidad de Missouri ha señalado que la dependencia creciente de la IA generativa podría minar el pensamiento crítico de quienes comienzan su carrera médica, además de perpetuar sesgos e inequidades presentes en los datos utilizados por estos sistemas.
Los autores destacan que estas herramientas ya se integran en la formación con escasas políticas institucionales y mínima regulación, lo que, a su juicio, exige que los responsables académicos adapten planes de estudio y métodos de enseñanza para reducir potenciales efectos adversos.
El editorial recuerda que la IA se emplea en tareas muy diversas y, con ello, aumenta el riesgo de confiar en exceso en sus resultados. A este escenario se suma la posibilidad de que los estudiantes interioricen sin revisión crítica la información generada por estos sistemas, según advierten los expertos.
Entre los problemas identificados se encuentra el sesgo de automatización, que se produce cuando el usuario, tras un uso continuado, acepta de forma acrítica la información digital sin someterla a comprobación propia.
También apuntan a la descarga cognitiva y la externalización del razonamiento, un proceso por el que los estudiantes delegan en la IA la recuperación y análisis de datos, con la consiguiente merma del pensamiento crítico y de la retención de conocimientos.
Los expertos muestran inquietud por la posible pérdida o debilitamiento de habilidades esenciales, especialmente en quienes aún están adquiriendo competencias clínicas y que, por tanto, pueden no detectar recomendaciones erróneas generadas por la tecnología.
El informe advierte de otros riesgos como el refuerzo de sesgos presentes en los datos, la aparición de “alucinaciones” —información verosímil pero incorrecta— y las amenazas a la privacidad y seguridad de los datos.
Para reducir estas amenazas, los especialistas proponen que las evaluaciones académicas califiquen el proceso de aprendizaje y no únicamente el resultado final, asumiendo que los alumnos emplearán estas herramientas como apoyo.
Los autores consideran necesario diseñar exámenes que excluyan el uso de IA en la valoración de habilidades críticas, mediante pruebas supervisadas o presenciales que resultan esenciales en ámbitos como la comunicación clínica, la exploración física o el trabajo en equipo.
Asimismo, sugieren incorporar la evaluación de la propia tecnología como parte del currículo, dado que la alfabetización en datos y el conocimiento del diseño y evaluación de sistemas de IA son ya imprescindibles para los futuros profesionales.
Los médicos en formación, señalan, deben entender los principios que explican las fortalezas y límites de estas herramientas y aprender a identificar sesgos y cambios en su rendimiento a medida que se integran en los circuitos clínicos.
Para reforzar el pensamiento crítico, proponen crear ejercicios en los que la IA ofrezca respuestas correctas y otras deliberadamente erróneas, de modo que los estudiantes tengan que analizarlas, aceptarlas o descartarlas con justificaciones basadas en evidencias.
Los expertos subrayan que los reguladores, las sociedades científicas y las asociaciones educativas deben actualizar de forma periódica sus orientaciones sobre el papel de la IA en la formación médica, con el fin de asegurar un uso adecuado y responsable.
En su reflexión final, los autores recuerdan que, aunque la IA generativa aporta beneficios contrastados, no está exenta de efectos indeseados para la educación médica. Por ello, concluyen que los programas formativos tienen la responsabilidad de anticipar estos riesgos y ajustar sus métodos de enseñanza para mitigarlos.