La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, convirtiéndose en una herramienta omnipresente en nuestra vida cotidiana. La utilizamos para obtener información, tomar decisiones e incluso recibir consejos médicos. Sin embargo, un reciente experimento social ha revelado una vulnerabilidad alarmante en estos sistemas: su capacidad para ser engañados y, lo que es aún más preocupante, para propagar mentiras con una apariencia de autoridad.
La investigadora médica Almira Osmanovic Thunström, de la Universidad de Gotemburgo, Suecia, llevó a cabo un experimento que expuso esta peligrosa realidad. Thunström creó una enfermedad cutánea completamente ficticia, a la que llamó “bixonimanía”, simplemente porque le parecía un nombre ridículo. Publicó dos artículos científicos falsos en un repositorio de preimpresiones, un sitio web donde los investigadores comparten sus trabajos antes de la revisión por pares. Los artículos incluían detalles inventados sobre la enfermedad, sus síntomas (picazón y enrojecimiento de los ojos después de un uso prolongado de pantallas) y un autor ficticio con una fotografía generada por IA.
El objetivo de Thunström era simple: ver si los chatbots de IA, que se alimentan de grandes cantidades de datos de internet, absorberían esta información errónea y la presentarían como consejos de salud fiables. La respuesta fue inquietante. En poco tiempo, la IA comenzó a hablar de la bixonimanía. Inicialmente, algunos chatbots reconocieron que la enfermedad era poco conocida o no estaba formalmente reconocida por la medicina. Sin embargo, gradualmente, cedieron ante la información falsa.
Copilot, el chatbot de Microsoft, llegó a afirmar que “la bixonimanía es, en efecto, una afección intrigante y relativamente rara”. Gemini, de Google, aseguró que “la bixonimanía es una afección causada por la exposición excesiva a la luz azul” y aconsejó a los usuarios que consultaran a un oftalmólogo. Perplexity afirmó que una de cada 90.000 personas se veía afectada por la bixonimanía, y ChatGPT de OpenAI comenzó a ofrecer información sobre la enfermedad a los usuarios que preguntaban sobre sus síntomas.

Lo más sorprendente es que Thunström había dejado pistas evidentes en los artículos falsos que indicaban que todo era un fraude. Incluyó afirmaciones como “todo este artículo es inventado” y “se reclutaron cincuenta personas ficticias de entre 20 y 50 años para el grupo de exposición”. Incluso inventó las afiliaciones de los autores, atribuyendo el financiamiento a la “Fundación Profesor Sideshow Bob, por su trabajo en técnicas avanzadas de engaño” y “la Universidad de la Fraternidad del Anillo y la Tríada Galáctica”.
Aún así, la IA cayó en la trampa. Pero la historia no termina ahí. Lo más alarmante fue que los estudios falsos también engañaron a humanos. Algunos investigadores citaron los artículos en sus propios trabajos, aparentemente sin leerlos detenidamente. Thunström cree que esto se debe a que algunos investigadores citan referencias generadas por IA sin verificar su autenticidad.
Este experimento plantea serias preguntas sobre la fiabilidad de la información que obtenemos de la IA y la necesidad de desarrollar mecanismos más efectivos para detectar y filtrar la desinformación. Jonathan R. Goodman y Mariam Rashid, investigadores de la Universidad de Cambridge, analizaron estos hallazgos en un artículo para The Conversation. Señalaron que no es un caso aislado y que, si bien la IA sigue teniendo dificultades para distinguir entre información real y falsa, “nuestra capacidad colectiva para reconocer la desinformación también está en riesgo”.
Goodman y Rashid argumentan que la sociedad ha priorizado las ciencias exactas en detrimento del pensamiento crítico, una habilidad que se desarrolla en las artes, las humanidades y las ciencias sociales. Subrayan que la IA puede ser una herramienta útil, pero solo si la utilizamos correctamente y no nos dejamos manipular por ella. Alex Ruani, investigador doctoral en desinformación sanitaria en el University College de Londres, advierte que si los sistemas científicos no pueden detectar y filtrar información falsa como la bixonimanía, “estamos perdidos”.
El experimento de Thunström es una lección magistral sobre cómo funciona la desinformación en la era de la IA. Nos recuerda que la tecnología no es inherentemente buena o mala, sino que depende de cómo la utilicemos. Es fundamental que desarrollemos una mayor conciencia crítica y que aprendamos a evaluar la información que encontramos en internet, especialmente cuando proviene de fuentes no verificadas. La alfabetización mediática y el pensamiento crítico son habilidades esenciales para navegar en un mundo cada vez más complejo y lleno de información falsa. La IA puede ser una herramienta poderosa, pero no debe reemplazar nuestro propio juicio y capacidad de discernimiento.