Una simple arruga de embalaje bastó para desatar una tormenta mediática que alcanzó dimensiones globales. En abril de 2026, mientras las selecciones se preparaban para el Mundial, un titular aparentemente técnico conseguía algo que las mejores campañas publicitarias no logran: convertir a Nike en tendencia mundial por razones completamente equivocadas.
El origen de una mentira perfecta
La historia comenzó cuando el medio español La Razón publicó un artículo con un titular magnético: «Nike deja que la IA diseñe las camisetas del Mundial y el resultado es desastroso». La narrativa era irresistible para la era digital: una corporación multinacional, inteligencia artificial fallida y el deporte más popular del planeta. Los ingredientes perfectos para la viralización inmediata.
Sin embargo, la realidad resultó ser dramáticamente más simple. Las supuestas «hombreras» que aparecían en las camisetas de selecciones como Francia, Inglaterra y Uruguay no eran producto de algoritmos defectuosos, sino de algo mucho más mundano: arrugas de compresión por embalaje.
La corrección que llegó desde las redes
Fue Abraham Labrada Romero, usuario de Facebook, quien proporcionó la explicación técnica que desmontaba completamente la narrativa. Su intervención, apenas once horas después de la publicación original, revelaba un detalle crucial: las camisetas llegaban «embolsadas» y el simple planchado eliminaba por completo el problema visual.
Esta corrección no provenía de la especulación, sino de conocimiento directo del proceso. Labrada Romero señalaba que incluso los vendedores de réplicas conocían y explicaban correctamente este fenómeno a sus clientes, lo que evidenciaba cuán básico era el malentendido original.
Anatomía de la desinformación deportiva
El caso Nike-IA ilustra perfectamente cómo opera la desinformación en el ecosistema mediático actual. La ausencia total de verificación básica permitió que una interpretación errónea se transformara en «noticia mundial». El medio original no consultó a Nike, no habló con utilleros de las selecciones, no contactó expertos textiles.
La velocidad informativa había triunfado sobre la precisión periodística, creando una realidad paralela que tardó horas en ser corregida pero que ya había alcanzado miles de interacciones.
Para comprender la magnitud del error, debemos analizar cómo funciona realmente la industria textil deportiva. Las prendas de alto rendimiento atraviesan procesos de compresión durante el transporte que pueden crear pliegues temporales. Estos efectos visuales desaparecen con el tratamiento térmico básico, una práctica estándar que cualquier utillero profesional domina.
El factor IA como anzuelo mediático
La atribución a inteligencia artificial no era casual. En 2026, la IA se había convertido en el comodín perfecto para explicar cualquier supuesto fallo tecnológico. La narrativa «IA defectuosa» genera más engagement que «problema de logística», alimentando el fenómeno conocido como «clickbait algorítmico».
Esta tendencia refleja una ansiedad global sobre la automatización que trasciende fronteras. Desde América Latina hasta Europa, las audiencias muestran una fascinación mórbida por los «fallos de la inteligencia artificial», convirtiendo estos relatos en contenido viral instantáneo.
Impacto más allá del deporte
Las consecuencias del caso trascienden el ámbito deportivo. Nike, una corporación que invierte millones en reputación de marca, se encontró defendiéndose de acusaciones completamente fabricadas. La compañía no había implementado IA en el diseño de estas equipaciones específicas, convirtiendo la polémica en un ejercicio de gestión de crisis sobre hechos inexistentes.
Para los consumidores internacionales, este episodio subraya la importancia del escepticismo informado. Las noticias que combinan tecnología, deporte y corporaciones multinacionales requieren verificación adicional, especialmente cuando los datos específicos brillan por su ausencia.
Lecciones para el periodismo global
El análisis profundo de este caso revela patrones preocupantes en el periodismo deportivo internacional. La presión por generar contenido inmediato había superado los controles básicos de calidad. Sin cifras concretas, sin testimonios verificados, sin consulta a fuentes primarias, La Razón había construido una narrativa completa sobre fundamentos inexistentes.
La corrección de Abraham Labrada Romero demostró que la ciudadanía digital a veces supera a los medios profesionales en rigor verificativo. Su explicación técnica, basada en conocimiento directo, contrastaba dramáticamente con la especulación mediática inicial.
Reflexiones para el futuro informativo
Este episodio plantea preguntas fundamentales sobre la sostenibilidad del modelo informativo actual. Cuando una simple arruga de embalaje puede convertirse en «noticia mundial sobre IA fallida», los mecanismos de verificación periodística requieren una revisión urgente.
La velocidad informativa, motor del periodismo digital, había creado una realidad paralela que tardó horas en ser desmentida pero que ya había impactado la percepción pública de una marca global. Las trece reacciones y comentarios que recibió la publicación original propagaron un mito que, técnicamente, nunca debería haber existido.
Para las audiencias internacionales, el caso Nike representa una invitación al consumo crítico de información. En una era donde las narrativas sobre inteligencia artificial capturan atención inmediata, la verificación ciudadana se convierte en un ejercicio de responsabilidad colectiva que trasciende fronteras y disciplinas.









