Lo que hay detrás del video de la mujer tomando el sol en Palacio Nacional y el debate sobre la IA

Metzli Escalante 22 marzo, 2026

De viral a polémico: el caso del video en Palacio Nacional que expone el poder de la tecnología y cómo crece la desinformación en la era de la inteligencia artificial

 ©Captura de pantalla. - Mujer tomando el sol en Palacio Nacional.

Un video aparentemente simple desató una conversación mucho más profunda sobre la desinformación, la inteligencia artificial (IA) y la dificultad creciente para distinguir entre lo real y lo falso en internet.

Las imágenes, que comenzaron a circular en redes sociales, muestran a una mujer recostada tomando el sol en una de las ventanas superiores de Palacio Nacional, sede del Poder Ejecutivo en México. El material rápidamente se volvió viral, pero también generó un intenso debate: ¿era real o había sido creado con IA?

El origen del video y la polémica

El creador de contenido conocido como Vampipe difundió inicialmente el video el pasado 19 de marzo y posteriormente compartió una versión más amplia en la red social X. En las imágenes, un ciudadano graba el recinto y, al hacer un acercamiento, se observa a la mujer recostada mientras usa su celular.

La escena, que para algunos resultó insólita, provocó una ola de reacciones. Sin embargo, el portal InfodemiaMX, perteneciente al Sistema Público de Radiodifusión del Estado Mexicano (SPR), aseguró que el video era falso.

Según su publicación, herramientas de detección indicaban que “más del 71% del metraje fue creado con inteligencia artificial”. Esta versión fue respaldada por Jenaro Villamil, presidente del SPR, quien compartió el análisis en redes sociales.

Verificaciones contradictorias

La narrativa cambió cuando surgieron nuevos elementos. Vampipe difundió el video completo, mostrando la secuencia sin cortes, lo que generó dudas sobre el análisis inicial.

Posteriormente, el sitio Verificado revisó el material utilizando herramientas especializadas como Hive Moderation y Hiya Deepfake. Su conclusión fue distinta: el video era real y el señalamiento de que se trataba de contenido generado por IA correspondía a un “falso positivo”.

Además, se identificaron otras grabaciones del mismo momento desde diferentes ángulos, así como coincidencias con imágenes captadas por cámaras públicas, lo que reforzó la autenticidad de la escena.

A pesar de ello, hasta el momento no existe un posicionamiento oficial que esclarezca completamente lo ocurrido dentro del recinto, mientras el video continúa circulando y siendo analizado.

El trasfondo: la era de los deepfakes

El caso no es aislado. Desde hace años, la tecnología ha demostrado su capacidad para manipular imágenes y videos. Ya en 2017, usuarios en plataformas como Reddit y YouTube experimentaban con videos en los que el rostro del actor Nicolas Cage era insertado en escenas donde nunca participó.

Pero el verdadero salto ocurrió a partir de 2022, con la llegada de herramientas de inteligencia artificial generativa como Stable Diffusion y ChatGPT, que facilitaron la creación de contenido hiperrealista a gran escala.

Hoy, plataformas como Sora (OpenAI), Veo (Google) o Runway permiten generar videos casi indistinguibles de la realidad.

Un problema creciente: ya no sabemos qué es real

La evolución tecnológica ha superado la capacidad de detección. Un estudio publicado por Springer en abril de 2025 reveló que las personas tienen un 36% menos de probabilidad de identificar videos generados con IA en comparación con hace dos años.

En otro experimento con 2,000 participantes en Reino Unido y Estados Unidos, apenas el 0.1% logró distinguir correctamente entre contenido real y deepfakes.

A la par, el uso de estas tecnologías crece de forma acelerada, con tasas anuales de entre 20% y 35%, según datos de la industria.

Desinformación y riesgos para la democracia

Organismos internacionales como la UNESCO han advertido que la desinformación, los discursos de odio y la manipulación digital representan amenazas directas para la democracia.

El organismo subraya la importancia de fortalecer la alfabetización mediática, exigir transparencia en los algoritmos y garantizar que las nuevas tecnologías no vulneren los derechos fundamentales.

Sin información verificada y sin capacidad crítica, advierten, el debate público se debilita.

TE PUEDE INTERESAR:

Cómo detectar contenido falso generado con IA

Ante este panorama, expertos recomiendan adoptar hábitos básicos de verificación:

  • Revisar la fuente: priorizar medios confiables y desconfiar de cuentas desconocidas.

  • Evaluar el contexto: contenidos demasiado impactantes o virales en poco tiempo pueden ser sospechosos.

  • Analizar detalles técnicos:

En video:

  • Parpadeo extraño o movimientos faciales poco naturales

  • Desajustes entre rostro y cuerpo

  • Audio fuera de sincronía

En audio:

  • Cambios inusuales en tono o ritmo

  • Ausencia o anomalías en el ruido de fondo

En imágenes:

  • Errores en manos, fondos o proporciones

  • Inconsistencias en luces y sombras

Una lección en medio de la polémica

El caso de la mujer en Palacio Nacional dejó más preguntas que respuestas, pero también una lección clara: en la era de la inteligencia artificial, ver ya no es suficiente para creer.

Hoy, la duda informada y el pensamiento crítico se han convertido en herramientas esenciales frente a un entorno digital donde la realidad puede ser, cada vez más, una construcción tecnológica.

Únete al canal de WhatsApp y recibe en tu celular lo más importante de México y  el mundo con el análisis y la voz de Guillermo Ortega Ruiz.