Los medios españoles tienen que decidir en 2026 si cubren la IA como gadget o como amenaza real

Durante años, los medios europeos han tratado la inteligencia artificial avanzada como un asunto accesorio, casi una extravagancia tecnológica más propia de conferencias en Silicon Valley que de las preocupaciones cotidianas de una ciudadanía saturada de crisis económicas, polarización política y conflictos internacionales. Sin embargo, a finales de 2025 el panorama cambió de forma abrupta. Los modelos capaces de razonar, programar y resolver tareas científicas complejas dejaron de ser prototipos experimentales para convertirse en herramientas reales, utilizadas en laboratorios, despachos ministeriales y centros de datos privados. La pregunta que hasta hace poco parecía ciencia ficción empezó a sonar distinta: ¿y si la inteligencia artificial capaz de igualar, o incluso superar, el desempeño humano en múltiples ámbitos está más cerca de lo que creemos?
En España, como en otros países europeos, esta conversación apenas comienza. Y lo hace tarde. Igual que ocurrió con el cambio climático en los años noventa y dos mil —cuando la evidencia científica avanzaba más rápido que la cobertura mediática—, la posibilidad de una inteligencia artificial general se está abriendo paso en los márgenes del debate público, sin que la mayoría de los medios hayan asumido la dimensión del desafío. No se trata solo de evaluar nuevos dispositivos, automatizaciones o aplicaciones comerciales: hablamos de tecnologías con capacidad potencial para transformar la economía, el poder militar, la gobernanza de datos, la seguridad nacional y las condiciones del trabajo intelectual.
Para quienes han seguido de cerca la evolución de los sistemas de IA más avanzados, la sorpresa no es que se hable de una inteligencia artificial capaz de afrontar cualquier tarea cognitiva humana, sino que aún se resista a asumir públicamente esa posibilidad. Investigadores europeos consultados por universidades, centros de ética y organismos reguladores coinciden en que los progresos logrados desde 2023 han sido más acelerados de lo previsto. La Unión Europea ha reaccionado con la aprobación del AI Act, pero incluso quienes participaron en su redacción reconocen que la norma nació para supervisar sistemas de alto riesgo, no para enfrentar tecnologías que podrían alterar la estructura misma del trabajo y la toma de decisiones.
En España, la conversación se ha fragmentado entre la fascinación por las nuevas herramientas de productividad y la preocupación por la automatización de empleos cualificados, pero casi no ha existido un espacio real para evaluar qué ocurriría si las máquinas alcanzaran capacidades comparables a las humanas en ámbitos como el derecho, la planificación urbana, el análisis científico, la seguridad o la diplomacia. Y, sin embargo, esa reflexión es hoy un asunto de interés público: las grandes decisiones sobre qué se desarrolla, para qué se utiliza y quién lo controla están en manos de empresas privadas con estructuras opacas y sin mecanismos efectivos de supervisión democrática.
Europa ya ha vivido los costes de ignorar las señales de alarma. Con la crisis financiera, con la pandemia, con la desinformación, con la emergencia climática. Y en todos esos casos, el periodismo jugó un papel decisivo cuando decidió mirar de frente el problema. La cuestión es si ahora, ante una tecnología que podría reordenar sectores completos de nuestra vida económica y social, las redacciones europeas estarán dispuestas a abandonar la ironía fácil y el escepticismo defensivo para iniciar un debate sólido y anticipado.
En 2026, las redacciones españolas tendrán que replantearse su manera de cubrir la inteligencia artificial. No bastará con informar sobre lanzamientos de productos, ni con entrevistar a portavoces corporativos, ni con ofrecer piezas divulgativas. Será necesario abordar cuestiones estructurales: ¿qué cambios laborales implicaría una IA capaz de coordinar el trabajo de cientos de agentes automatizados? ¿Qué papel tendrá la seguridad pública si sistemas autónomos participan en infraestructuras críticas? ¿Cómo garantizar que las decisiones no deleguen de facto competencias políticas en modelos opacos? ¿Qué impacto tendría un salto tecnológico así en las desigualdades sociales y territoriales dentro del propio país?
En países como Alemania, Francia o los Países Bajos, algunos medios ya están consolidando unidades especializadas que investigan la dimensión social, ética y geopolítica de la IA. En España, este proceso avanza a un ritmo desigual. Algunas cabeceras han empezado a crear verticales específicos, pero la mayoría todavía cubre la IA como si se tratase de un fenómeno externo, ajeno a las decisiones públicas locales. Esa distancia no podrá mantenerse mucho tiempo.
El reto no es solo informativo, sino democrático. Si la sociedad no participa en la deliberación, las decisiones las tomarán los desarrolladores, los inversores y los estados que vayan por delante. La ciudadanía española tiene derecho a saber qué riesgos reales se contemplan, qué escenarios manejan los centros de investigación, qué límites deberían imponerse y con qué herramientas contamos para garantizar que tecnologías tan poderosas no se despliegan sin control.
2026 será, probablemente, el año en que Europa se pregunte si está dispuesta a debatir de manera abierta el futuro de las inteligencias no humanas que está creando. Y será también el año en que el periodismo deberá decidir si quiere repetir los errores del pasado o asumir que su misión no es tranquilizar, sino iluminar lo que puede transformar nuestra vida colectiva. La ventana para hacerlo sigue abierta, pero cada mes que se posterga el debate, más estrecha se vuelve.