top of page

AI Act de la Unión Europea: la regulación de la inteligencia artificial que asusta a Silicon Valley

  • Foto del escritor: Franco Fernandez
    Franco Fernandez
  • 5 nov
  • 4 Min. de lectura

Contexto europeo:

La Unión Europea se ha convertido en pionera mundial al regular dos de las tecnologías más disruptivas de la década: la inteligencia artificial y los criptoactivos.

En 2024-2025, la UE aprobó leyes históricas (el Reglamento de IA (AI Act) y el Reglamento MiCA para criptomonedas) con la promesa de proteger a los ciudadanos y brindar “certeza jurídica” en el tumultuoso mundo digital.


Sin embargo, estas normas también han desatado polémicas feroces. Grandes empresas tecnológicas y startups advierten que Europa esta sacrificando su innovación en aras del control, generando aplausos por la valentía regulatoria, pero también cautela ante un posible “tiro en el pie” tecnológico.


A continuación, examinamos cómo el AI Act y MiCA están sacudiendo la industria y por qué muchos temen que la gran ofensiva regulatoria europea pueda terminar ahuyentando aquello que pretende proteger.

Portada sobre el AI Act de la Unión Europea: la UE quiere poner la inteligencia artificial bajo control.

El AI Act: la pionera ley de IA que alarma a Silicon Valley

La UE presumió de aprobar la primera ley integral de inteligencia artificial del mundo en 2024. El reglamento no va solo de “poner orden”, sino de proteger derechos fundamentales frente a usos intrusivos de la tecnología.


¿Cómo lo hace? Clasifica los sistemas de IA según el riesgo que representan. Los usos considerados “inaceptables” quedan directamente prohibidos: nada de vigilancia biométrica masiva, ni sistemas de puntuación social al estilo chino.


Después vienen las aplicaciones de “alto riesgo” (como la IA para selección de personal, sanidad, infraestructuras críticas o servicios públicos) que sí podrán utilizarse, pero solo si cumplen un paquete muy exigente de obligaciones: transparencia, calidad de los datos, trazabilidad, evaluación previa y, sobre todo, supervisión humana antes de salir al mercado.


La idea de fondo es clara: si vas a ofrecer IA a 450 millones de europeos, tiene que ser fiable, segura y alineada con los valores de la UE. Y ese enfoque regulatorio, más preventivo que el de EE. UU., es precisamente lo que ha encendido las alarmas en parte de la industria tecnológica.


Sin embargo, desde su gestación ha enfrentado un rechazo frontal de la industria. En mayo de 2023, Sam Altman, CEO de OpenAI (creadores de ChatGPT), llegó a amenazar con retirar sus servicios de Europa si el AI Act resultaba demasiado oneroso.


Advirtió que el borrador era sobre-regulatorio y que ChatGPT podría desaparecer del mercado europeo si no se ajustaban las exigencias. Altman hizo una gira relámpago por Europa reuniéndose con líderes como Emmanuel Macron para presionar por cambios, e incluso canceló a última hora su visita a Bruselas en señal de desacuerdo.


Asimismo los eurodiputados acusaron al ejecutivo de querer “chantajear” a Europa. “No vamos a dejarnos extorsionar por empresas americanas,” replicó la eurodiputada Kim van Sparrentak, afirmando que si OpenAI “no puede cumplir con requisitos básicos de transparencia y seguridad, entonces sus sistemas no son aptos para el mercado europeo”. Cabe recordar que poco antes, en marzo de 2023, Italia había bloqueado temporalmente ChatGPT por violar normas de privacidad – un aviso de la postura firme con la que Europa planeaba aplicar sus reglas.


El aumento del conflicto

Esa tensión entre reguladores vs. gigantes de Silicon Valley solo aumentó conforme la ley se acercaba a entrar en vigor. En julio de 2025, a un mes de activarse las primeras obligaciones, 45 de las mayores empresas europeas (incluyendo Airbus, Siemens, Heineken, Lufthansa o incluso startups de IA como Mistral) firmaron una carta abierta pidiendo “parar el reloj” del AI Act. En la misiva al Ejecutivo comunitario, advirtieron que las normas eran “poco claras, solapadas y cada vez más complejas” y que así “amenazan la competitividad e innovación” del continente.


Temen que, sin ajustes, la UE termine ahogando el desarrollo de la IA europea justo cuando compite contra Estados Unidos y China.


En particular, exigieron postergar dos años la aplicación de las disposiciones más estrictas – tanto para sistemas de alto riesgo (previstas en 2026) como para modelos de IA de propósito general tipo GPT-4 (cuyas obligaciones comenzarían en agosto de 2025) – hasta tener guías técnicas más claras.


Bruselas respondió rechazando oficialmente cualquier moratoria amplia (manteniendo el inicio en agosto de 2025 para los primeros requisitos), pero dejó abierta la puerta a “flexibilizar plazos” en aspectos puntuales si los estándares de implementación no llegaban a tiempo. Es decir, la Comisión no quería dar marcha atrás públicamente, aunque reconocía en privado que quizás la industria tenía razón sobre la falta de preparación.


No solo las empresas alzaron la voz: figuras políticas de peso en la propia UE han cuestionado la dureza del AI Act. El ex primer ministro italiano Mario Draghi, en un informe de finales de 2024, sorprendió al urgir a Europa a pausar la ley de IA y hasta relajar ciertas normas de privacidad para no estrangular al sector. Draghi alertó que la regulación excesiva (sumada a la lentitud inversora) estaba rezagando a la UE en la carrera tecnológica global.


Señaló que los modelos de IA generativa requieren enormes volúmenes de datos para entrenar, algo difícil de conseguir en Europa debido a las restricciones del GDPR, el conocido reglamento de protección de datos personales. De hecho, desde 2023 varios reguladores nacionales investigan a herramientas como ChatGPT bajo el GDPR, generando “altos niveles de incertidumbre jurídica para los desarrolladores de IA”, según Draghi. Su recomendación fue posponer partes del AI Act “hasta entender mejor sus inconvenientes”, porque en su opinión la UE “necesita nueva velocidad, escala e intensidad” para competir con China y EE. UU. en IA.


“Primero regular, después innovar” 

Esta premisa genera distintas respuestas del sector, por un lado organizaciones de derechos digitales aplauden que la UE ponga límites éticos a la IA antes que nadie, prohibiendo prácticas distópicas y exigiendo responsabilidad a las empresas.


Pero por otro lado, las empresas tecnológicas sienten pánico: temen que el entramado burocrático, las auditorías y posibles multas de hasta 30 millones de euros (o el 6-7% de facturación) ahuyenten la inversión y frenen la adopción de IA en Europa.


La imagen de docenas de CEOs clamando por un respiro regulatorio en 2025 demuestra una inquietud real: ¿Está Europa protegiendo a sus ciudadanos a costa de condenar su propia competitividad?.


La verdadera prueba llegará en 2026, cuando estas obligaciones se vuelvan exigibles; entonces sabremos si el AI Act logra un IA “de fiar” made in Europe, o si por el contrario las empresas optan por llevar sus laboratorios de IA a latitudes con entornos más benignos.

 
 
 

Comentarios


bottom of page