Un periodista ha logrado inducir a ChatGPT (OpenAI) y a herramientas de IA de Google a ofrecer información falsa en sus respuestas, simplemente publicando en Internet un blog con datos inventados redactados con detalle y apariencia verosímil.
El experimento pone de manifiesto una vulnerabilidad en sistemas de Inteligencia Artificial de uso generalizado.
Cuando un usuario formula preguntas a un ‘chatbot’ o a servicios de búsqueda impulsados por IA —como el Modo IA o AI Overviews de Google con Gemini—, las respuestas se construyen a partir de grandes modelos de lenguaje. Estos sistemas se alimentan de amplias bases de datos que han sido analizadas y clasificadas como información fiable, de acuerdo con su funcionamiento.
No obstante, si el ‘chatbot’ recibe una consulta para la que no dispone de conocimiento suficiente, suele recurrir a búsquedas en Internet para completar los datos, combinándolos con lo que aporta el propio modelo. En ese escenario, aumenta el riesgo de incorporar información no contrastada, que puede resultar incorrecta o directamente inventada.
Con esa premisa, Thomas Germain, periodista tecnológico de la BBC, llevó a cabo una prueba para comprobar hasta qué punto OpenAI y Google contrastan la información antes de incorporarla a sus respuestas, o si, por el contrario, repiten contenidos falsos.
Para ello, Germain redactó y publicó en su blog personal un texto con datos completamente inventados, donde sostenía de forma convincente que era "el mejor periodista comiendo perritos calientes del mundo".
El artículo, titulado Los mejores periodistas tecnológicos comiendo perritos calientes, incluía afirmaciones como que comer perritos calientes es "un pasatiempo popular" entre periodistas tecnológicos y que existía un Campeonato Internacional de Perritos Calientes de Dakota del Sur (Estados Unidos).
Con el objetivo de reforzar el realismo, añadió nombres de otros periodistas, reales y ficticios, con la intención de que la IA pudiera elaborar una lista de diez personas y ordenarlas en función de quién comería más perritos calientes. Según explicó, tardó unos 20 minutos en redactarlo y después lo publicó en su blog.
De acuerdo con su relato, en menos de 24 horas desde la publicación, las herramientas de IA de Google y las respuestas de ChatGPT empezaron a reproducir las afirmaciones del artículo como si fueran reales. Además, llegaron a citar el propio texto como fuente fiable, sin advertir que era el único origen de esas supuestas “informaciones”.
Como consecuencia, Germain asegura que logró que Gemini y ChatGPT respondieran de forma general a los usuarios que él era especialmente hábil comiendo perritos calientes, lo que evidenciaría la facilidad con la que pueden manipularse las respuestas de herramientas masivas mediante contenidos falsos elaborados con poco esfuerzo. El periodista buscó que los sistemas asumieran su mentira como un hecho verificable.
Tras detectar esta posibilidad, Germain señaló que, según declaraciones de un portavoz de Google, la IA que aparece en la parte superior de la Búsqueda utiliza sistemas de clasificación que "mantienen los resultados 99% libres de spam".
Por su parte, OpenAI indicó que adopta medidas para interrumpir y exponer intentos de influencia sobre sus herramientas. Aun así, tanto Google como OpenAI han reconocido que sus opciones de IA "pueden cometer errores".
El periodista también apuntó que, según sus pruebas, otros ‘chatbots’ o modelos de IA se mostraron más cautelosos ante este tipo de cuestiones. Entre los ejemplos citados figura Anthropic, cuyos sistemas, según Germain, detectaban que la información podía tratarse de una broma.
El caso vuelve a situar en primer plano la capacidad de cualquier persona para introducir y propagar desinformación a través de la IA, con posibles consecuencias en ámbitos como la salud, la economía, la política o recomendaciones críticas de seguridad.
Para reducir el riesgo de malentendidos, se aconseja a los usuarios comprobar las fuentes citadas por los servicios de IA y buscar información adicional que permita contrastar y completar las respuestas obtenidas.