El Gran Engaño de la IA: Científicos Inventan una Enfermedad Falsa y ChatGPT la Cree Real
El experimento con “bixonimania” expone la vulnerabilidad de los asistentes de inteligencia artificial para propagar información inexacta; el caso ya es estudiado por expertos en ética digital
Abril 15, 2026 | 14:30 hrs
En un experimento que ha encendido todas las alarmas sobre la confiabilidad de la inteligencia artificial, un equipo de investigadores liderado por la médica Almira Osmanovic Thunström decidió poner a prueba hasta qué punto los asistentes de IA pueden ser engañados. El resultado fue tan contundente como inquietante: Copilot de Microsoft y ChatGPT de OpenAI comenzaron a informar a sus usuarios sobre una enfermedad completamente inventada como si fuera real .
La enfermedad ficticia se llama “bixonimania”. No existe. Nunca existió. Y sin embargo, los sistemas de IA más avanzados del mundo la trataron como un hecho médico verificable después de que los científicos publicaran dos estudios falsos en servidores de preimpresión. Los investigadores incluyeron múltiples señales de advertencia en sus documentos fraudulentos; incluso escribieron explícitamente que “todo este contenido es inventado”. La IA lo ignoró .
El experimento, que ya circula con fuerza en círculos académicos y tecnológicos, demuestra una vulnerabilidad crítica de los grandes modelos de lenguaje: su incapacidad para distinguir entre información genuina y contenido fabricado cuando este último está presentado con un formato científico aparentemente legítimo.
Cómo se gestó el engaño
A principios de 2024, el equipo de Thunström subió dos estudios completamente ficticios a servidores de preimpresión, plataformas donde los investigadores publican trabajos antes de ser sometidos a revisión por pares. Los documentos describían con lujo de detalle los síntomas, mecanismos y posibles tratamientos de “bixonimania”, una dolencia que nunca había afectado a ningún ser humano .
Los investigadores no intentaron ocultar el engaño. Al contrario, sembraron el texto con advertencias explícitas. Pero para los sistemas de IA entrenados para extraer información de grandes volúmenes de datos textuales, la presencia de esos documentos fue suficiente para incorporar “bixonimania” a su base de conocimientos.
Poco después, usuarios de Copilot y ChatGPT comenzaron a recibir respuestas que mencionaban la enfermedad ficticia como si fuera real. En algunos casos, los asistentes mostraban cierto escepticismo o matizaban la información. En otros, simplemente la presentaban como un hecho .
La situación escaló aún más cuando un artículo científico real, sometido a revisión por pares, citó los estudios falsos y posteriormente tuvo que ser retractado. La cadena de desinformación ya estaba en marcha.
El problema de fondo: la IA no entiende, solo predice
Lo ocurrido con “bixonimania” no es un caso aislado ni una anécdota menor. Los expertos en ética digital y seguridad de IA llevan años advirtiendo sobre este fenómeno: los grandes modelos de lenguaje no “entienden” el contenido que procesan; son máquinas de predicción estadística que generan respuestas basadas en patrones encontrados en sus datos de entrenamiento.
“Si la IA encuentra suficiente información que respalda una afirmación, aunque esa información sea falsa o esté deliberadamente manipulada, tenderá a reproducirla”, explica un análisis publicado en Nature tras la difusión del experimento . El problema se agrava cuando los sistemas no tienen mecanismos robustos para contrastar fuentes o detectar señales de alerta que un humano identificaría fácilmente.
El caso también pone en evidencia una vulnerabilidad conocida como “envenenamiento de datos” (data poisoning): la posibilidad de que actores malintencionados inunden el ecosistema digital con información falsa estructurada de manera convincente, corrompiendo así las respuestas futuras de los asistentes de IA.
¿Qué sigue? El desafío de la verificación
El experimento de Thunström ha reavivado el debate sobre la necesidad de implementar sistemas de verificación de fuentes en tiempo real para los asistentes de IA. Algunas empresas ya están trabajando en soluciones que permiten a los modelos contrastar sus respuestas con bases de datos confiables antes de entregarlas al usuario.
Sin embargo, los desafíos son enormes. La velocidad y el volumen de generación de contenido en internet hacen prácticamente imposible una verificación exhaustiva de cada afirmación. Y la presión por lanzar productos al mercado no siempre deja espacio para implementar los más rigurosos controles de seguridad.
Mientras tanto, los investigadores responsables del engaño han lanzado una advertencia clara: lo que ellos hicieron como experimento académico puede ser replicado por cualquiera con malas intenciones. Desde campañas de desinformación política hasta la creación de pánicos médicos basados en enfermedades inexistentes, el potencial de daño es significativo.
Por ahora, “bixonimania” sigue siendo una enfermedad falsa. Pero el hecho de que una IA haya estado dispuesta a certificar su existencia debería bastar para que usuarios y desarrolladores mantengan los ojos bien abiertos.
Un partido revolucionario, si en verdad está empeñado en hacer y dirigir la revolución no puede renunciar al legítimo derecho de ser o formar parte de la vanguardia histórica que en efecto haga y dirija la revolución socialista en nuestro país, es de hipócritas decir que se lucha sin aspirar a tomar el poder y mucho más aún si se pretende desarrollar lucha diciendo que no busca ser vanguardia cuando en los hechos se actúa en esa dirección.
Ver másUna misión de la NASA consiguió enviar información desde una distancia de 450 millones de kilómetros superando en velocidad a …
La agencia espacial estadounidense elevó la probabilidad de colisión al 96% tras nuevas observaciones del telescopio James Webb, y descartó …
Un equipo de investigadores de la Universidad Northwestern y el CERN ha conseguido transmitir estados cuánticos mediante un sistema de …

