

La Comisión Europea (CE) propuso este miércoles retrasar hasta diciembre de 2027 la aplicación de varias obligaciones contempladas en la ley de inteligencia artificial (IA), especialmente las relacionadas con los llamados sistemas de alto riesgo.
Esta medida busca asegurar que la introducción de estos sistemas en el mercado no vulnere derechos fundamentales ni ponga en peligro vidas humanas.
La ley de IA, vigente desde el año pasado, clasifica como “sistemas de alto riesgo” aquellos modelos que afectan decisiones críticas, como la concesión de créditos bancarios, la selección de currículos laborales o la gestión del tráfico vehicular.
Aunque las normas técnicas para evitar discriminación y otros riesgos debían aplicarse a partir de agosto de 2026, Bruselas admitió que aún no están definidas y propuso aplazarlas a finales de 2027.
La CE también amplió facilidades para pequeñas y medianas empresas y compañías de mediana capitalización, aligerando la documentación necesaria para cumplir con la regulación.
Imposición de multas
La vicepresidenta encargada de política digital, Henna Virkkunen, destacó que esta medida ayudará a reducir la burocracia, ahorrando a las empresas al menos 225 millones de euros anuales.
A diferencia de borradores anteriores, la Comisión mantuvo vigente la imposición de multas a modelos generativos de IA como ChatGPT o Gemini que no cumplan con requisitos de transparencia, como advertir a los usuarios sobre contenido generado por máquinas.
La propuesta debe ser aprobada por el Consejo de la UE y el Parlamento Europeo. Sin embargo, el sector de la izquierda ya adelantó su rechazo, alegando que la CE podría estar cediendo a presiones de Estados Unidos para suavizar la regulación de las grandes tecnológicas.
¡Síguenos en nuestras redes sociales y descargar la app!








