Alertan sobre el sesgo político en la IA y su efecto en la democracia

La Inteligencia Artificial generativa avanza a un ritmo acelerado, pero su impacto en el discurso público y en los valores democráticos está siendo cuestionado. Un estudio dirigido por la Universidad de East Anglia (UEA) en Reino Unido ha revelado que herramientas como ChatGPT presentan sesgos ideológicos, inclinándose hacia valores políticos de izquierda y evitando perspectivas conservadoras.
El doctor Fabio Motoki, investigador principal del estudio y profesor en la Norwich Business School, ha explicado que la IA generativa "está lejos de ser neutral" y que sus sesgos pueden influir en la percepción pública y en la formulación de políticas. La investigación, publicada en el Journal of Economic Behavior and Organization, se ha realizado en colaboración con expertos de la Fundación Getulio Vargas (FGV) e Insper en Brasil, utilizando metodologías avanzadas para evaluar la alineación política en los textos e imágenes generados por estos modelos.
Los resultados han mostrado que ChatGPT evita abordar ciertos puntos de vista conservadores mientras genera contenido alineado con ideas progresistas. Además, en la generación de imágenes, el sistema ha rechazado crear representaciones relacionadas con ideologías de derecha, argumentando preocupaciones sobre desinformación, pero no ha aplicado el mismo criterio a imágenes de tendencia izquierdista. Según los investigadores, esto plantea dudas sobre la imparcialidad y la responsabilidad en el diseño de la IA y su posible influencia en la sociedad.
Riesgos para la confianza en las instituciones democráticas
El estudio advierte que la falta de neutralidad en estos sistemas de inteligencia artificial podría exacerbar la polarización política y erosionar la confianza en las instituciones democráticas. Según el doctor Pinho Neto, coautor del estudio y profesor de Economía en la Escuela Brasileña de Economía y Finanzas EPGE, la IA generativa, si no es regulada de manera adecuada, podría distorsionar el discurso público y reforzar narrativas sesgadas, afectando la calidad del debate democrático.
Para llegar a estas conclusiones, los investigadores han aplicado tres métodos innovadores que han permitido detectar desviaciones sistemáticas en las respuestas de ChatGPT. Se ha utilizado un cuestionario basado en estudios del Pew Research Center para analizar su alineación ideológica en comparación con datos reales de la sociedad estadounidense. También se han encargado respuestas de texto libre sobre temas políticamente sensibles y se han analizado las imágenes generadas en función de su carga ideológica.
Llamado a la regulación y la transparencia en la IA
Dado que la inteligencia artificial generativa está cada vez más presente en el periodismo, la educación y la formulación de políticas, los investigadores insisten en la necesidad de una regulación clara y mecanismos de transparencia que eviten manipulaciones ideológicas. La investigación subraya la importancia de que legisladores, tecnólogos y académicos colaboren para garantizar que estos sistemas sean imparciales, responsables y alineados con los principios democráticos.
Los hallazgos de este estudio confirman la urgencia de establecer controles rigurosos en el desarrollo de la inteligencia artificial generativa para evitar que se convierta en una herramienta que refuerce una única visión política. Según los expertos, el reto ahora es asegurar que estas tecnologías reflejen la pluralidad de ideas y valores existentes en la sociedad, sin favorecer ni excluir ninguna perspectiva ideológica.