Luxemburgo (EuroEFE).- La vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, abrió este viernes la puerta a «posponer algunas partes» de la ley de inteligencia artificial que la Unión Europea aprobó hace un año y medio, si las empresas «no están preparadas» para aplicarla en su totalidad.
La normativa permite o prohíbe el uso de la inteligencia artificial en función del riesgo que suponga para las personas y ya ha entrado en vigor, aunque su despliegue será paulatino hasta aplicarse por completo, en principio, a partir de 2027.
Desde febrero de este año están prohibidos ya los sistemas de identificación biométrica y los que puntúan a las personas en función de su comportamiento o características personales y tampoco se pueden crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales.
En cambio, la aplicación de las normas que deberán seguir los modelos de inteligencia artificial generativa están previstas a partir del próximo mes de agosto y las que deberán seguir los sistemas considerados de alto riesgo, en 2026.
«Los objetivos de nuestras normas son muy válidos, quizás ahora más que nunca», aseguró Virkkunen, aunque al mismo tiempo, señaló que «si hay algo, por ejemplo con los estándares y directrices para las que (las empresas) no están preparadas, tenemos que mirarlas o posponer algunas partes de las reglas».

Bruselas debería haber publicado en mayo las directrices para los modelos de inteligencia artificial generativa, con la intención de que entren en vigor el 2 de agosto, pero el tercer borrador del documento recibió grandes críticas por parte de los eurodiputados que redactaron la ley, de las asociaciones de derechos de autor y del sector académico.
La Comisión está preparando ahora la cuarta versión de las directrices y mantiene el objetivo de que se apliquen a tiempo.
Consulta pública
Este viernes, además, lanzó una consulta pública para fijar las directrices de los sistemas considerados de alto riesgo, como los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.
Have your say on the implementation of the AI Act’s rules for high-risk AI systems!
— Digital EU 🇪🇺 (@DigitalEU) June 6, 2025
Submit your input by 18 July on AI systems & on issues that need clarification in both the guidelines:
→ on the classification of high-risk AI systems
→ on high-risk requirements & obligations
Bruselas presentará a finales de año un paquete Ómnibus de simplificación digital con el objetivo de reducir las cargas burocráticas a las empresas.