Análisis 300
11 Julio 2025
El auge de la Inteligencia Artificial (IA) está reconfigurando el orden internacional. La geopolítica de la IA ha situado a las economías líderes a nivel mundial en una carrera estratégica por la posición de liderazgo en el mercado tecnológico, con consecuencias que van más allá de lo económico. Los líderes actuales son Estados Unidos y China, cada uno con sus distintas fortalezas. Mientras EEUU se apoya en su sector privado, en el que empresas como Microsoft, Google o Meta lideran una innovación difícil de igualar apoyada en millones invertidos en capital de riesgo; China presenta un ecosistema firme en la industria tecnológica con gigantes —como Baidu o Tencent— apoyado por una estrategia estatal coordinada, un inversión sostenida y constante, y un masivo volumen de datos.
Frente a estas dos potencias, la Unión Europea no compite en condiciones simétricas. El tejido industrial en IA europeo, aunque en crecimiento, sigue fragmentado, y la inversión privada aún está lejos de alcanzar la escala de Silicon Valley o Shenzhen. En contraste, la UE ha optado por basar su ventaja comparativa en el ámbito normativo y ético con el Reglamento de Inteligencia Artificial en el epicentro, un paso sin precedentes hacia un marco legal comprensivo para la IA. Esta normativa, aprobada en 2024 y aplicable plenamente en 2027, establece una clasificación de riesgos en IA (inaceptable, alto, limitado y mínimo), prohíbe prácticas que atenten contra los derechos fundamentales tales como la vigilancia biométrica masiva o la manipulación cognitiva.
El Reglamento de IA se encauza en un ecosistema jurídico más amplio de gobernanza digital europea, que incluye los textos del Reglamento General de Protección de Datos (GDPR), la Ley de Servicios Digitales (DSA) o la Ley de Mercados Digitales (DMA). Esta acumulación normativa ha generado una creciente ola de críticas desde ciertos sectores empresariales y académicos, que denuncian una “sobrerregulación” que estaría obstaculizando la capacidad de innovación en el continente europeo. No obstante, presentar el desafío europeo como una simple disyuntiva entre regulación y competitividad resulta simplista, pues la crítica omite factores estructurales más determinantes que explican las dificultades de Europa para posicionarse como potencia en inteligencia artificial. Entre dichas dificultades destacaría la fragmentación del mercado digital europeo, la escasez de capital de riesgo invertido en el sector, y la dependencia extranjera. Prestando especialmente atención a esta última, sin soberanía en componentes clave como la computación en la nube o los chips, la ambición de autonomía tecnológica y estratégica en la Unión, podría estancarse como marco de referencia sin poder de ejecución.
Reconociendo esta vulnerabilidad, la UE ha comenzado a reforzar su base industrial y tecnológica mediante proyectos concretos de alcance transnacional como EuroHPC Joint Undertaking e InvestAI. Impulsados por una inversión conjunta público-privada de 2.100 millones de euros, la Comisión anticipa la construcción de hasta cinco gigafactorías de IA. Estas infraestructuras ya han obtenido una respuesta fuerte del sector privado, con 76 manifestaciones preliminares de interés en 16 Estados miembros.
Esta apuesta por una IA europea competitiva y soberana se extiende también al ámbito de la seguridad y la defensa, donde la IA comienza a desempeñar un papel estratégico. En el Plan el ReArm Europe – Readiness 2030, la Comisión identificó 7 áreas críticas de la capacidad de defensa europea entre las cuales figura la IA, junto con tecnologías cuánticas, ciberdefensa y guerra electrónica. A través del European Defence Fund (EDF 2025), la UE está financiando el desarrollo de capacidades autónomas, vigilancia inteligente y operaciones cibernéticas avanzadas; inversiones que se alinean con iniciativas europeas más amplias como el Programa Europa Digital y la Estrategia de Ciberseguridad.
No obstante, la falta de consenso sobre el uso militar de la IA, especialmente los letales, revela que la consolidación de la inteligencia artificial como herramienta geoestratégica tiene un largo camino en la Unión, que exigirá no solo ambición inversora, sino también una gobernanza que equilibre las ambiciones de autonomía estratégica y, a su vez, con la fidelidad a los valores y el marco ético que la UE promueve en su regulación de IA. En esta misma línea, otro desafío será definir la titularidad de la responsabilidad y supervisión de este elenco de avances, dónde se establecerán los límites y quién los impondrá. Identificar y definir estos aspectos será determinante para que la Unión logre su objetivo de autonomía sin sacrificar los principios que definen su visión ética de la tecnología.
Lydia Zhuying
Las opiniones de este análisis son de exclusiva responsabilidad de su autor.