Nueva regulación

Europa obliga a identificar los contenidos creados con inteligencia artificial

Archivo - Sesión de votación en el pleno del Parlamento Europeo en Estrasburgo

Archivo - Sesión de votación en el pleno del Parlamento Europeo en Estrasburgo / PARLAMENTO EUROPEO/PHILIPPE STIRNWEISS - Archivo

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La esperada ley que regula la inteligencia artificial (IA) en la Unión Europea (UE) es una realidad. Este jueves, 1 de agosto de 2024, entra oficialmente en vigor el primer marco jurídico del mundo que limita la comercialización y el uso de estas tecnologías en base a sus riesgos, una normativa que pretende fomentar su desarrollo ético protegiendo al mismo tiempo los derechos fundamentales de los ciudadanos.

La ley es el resultado de más de tres años de intenso trabajo. En abril de 2021, la Comisión Europea propuso por primera vez elaborar un reglamento "equilibrado" que permitiese al bloque comunitario cimentar su liderazgo tecnológico aprovechando los aspectos positivos de la IA y evitando sus consecuencias negativas. A finales de 2022 el texto parecía cerrado, pero la inesperada fiebre por modelos generativos desatada con el lanzamiento de ChatGPT obligó a los legisladores a recoserlo para evitar que quedase desfasada. Finalmente, y tras meses de árduas negociaciones, el Parlamento Europeo aprobó el pasado marzo una medida que desde Bruselas se ha definido como "histórica".

Clasificación por riesgos

La pionera regulación vigente desde hoy sienta las bases para la gobernanza de la IA. Para ello, la clasifica en cuatro grupos que establecen obligaciones más o menos estrictas según sus riesgos. "Combina la defensa de la innovación con la protección de los derechos básicos (...) y supone una capa adicional de protección porque estamos ante una herramienta muy poderosa", explica Ibán García del Blanco, exeurodiputado socialista que participó en su redactado.

Esa serie de normas afectarán a las empresas que desarrollan estas tecnologías, pero también a los organismos públicos, compañías e individuos que las utilizan. Sus repercusiones irán más allá de la UE, afectando a los proveedores que, aún operando fuera de las fronteras comunitarias, introduzcan sus sistemas en el mercado europeo. Las multas por su incumplimiento pueden alcanzar un máximo de 35 millones de euros o el 7% de su facturación anual mundial.

1. Riesgo inaceptable

La ley prohíbe rotundamente los usos de la IA que violan los derechos fundamentales. Es el caso de los sistemas predictivos policiales, los que buscan manipular el comportamiento de los usuarios o los que categorizan a los individuos para deducir su raza, opiniones políticas u orientación sexual.

2. Riesgo alto

Cuando la IA puede tener un impacto nocivo en la seguridad de las personas y sus derechos individuales. Es el caso del reconocimiento facial, del control biométrico laboral o de los sistemas predictivos usados para diagnosticar enfermedades y determinar ayudas públicas, créditos bancarios o contenidos educativos, entre otros.

Para estos usos, la ley contempla una serie de obligaciones estrictas que garanticen la transparencia de los algoritmos. "Los desarrolladores de esos programas de IA estarán obligados a que sus datos sean precisos y justos, pero también a ser transparentes en su diseño para explicar a las autoridades cómo han llegado a una conclusión y no a otra", explicó el coponente de la ley y presidente de la comisión especial sobre IA, el eurodiputado rumano Ioan-Dragos Tudorache, en una entrevista con EL PERIÓDICO.

La normativa también exige que los organismos públicos que adopten sistemas de IA de alto riesgo deban realizar antes una evaluación de impacto. La UE creará una base de datos en la que informará a los ciudadanos de qué entes se sirven de estas tecnologías, lo que les dará más poder para impugnar aquellas decisiones algorítmicas que consideren injustas.

3. Riesgo limitado

En esta categoría se incluyen los sistemas de IA cuyos riesgos están asociados a la falta de transparencia. La ley se refiere principalmente a los llamados modelos de propósito general, las aplicaciones de IA generativa capaces de producir textos, imágenes, áudios o vídeos en base al océano contenido que extraen de Internet.

Las medidas dictaminadas por la UE pretenden obligar a los gigantes tecnológicos que comercializan estos sistemas generativos —principalmente MicrosoftOpenAI Google— a adoptar cambios que esclarezcan el funcionamiento de sus productos y permitan a los ciudadanos estar más informados. Eso permitirá saber si programas como ChatGPT, Gemini, Bard o Claude han sido entrenados con datos sesgados o con obras protegidas por los derechos de autor. También se traducirá en el etiquetaje de los contenidos creados con IA mediante una marca de agua para que los usuarios sepan distingir cuando lo que ven es real y cuando es sintético, reduciendo así el riesgo de caer en la desinformación.

4. Riesgo mínimo

En el último escalón regulador figuran los sistemas que pueden desplegarse sin obligaciones adicionales a las establecidas por la legislación vigente, pues se considera que entrañan un riesgo muy limitado. Por ejemplo, si una empresa usa IA para procesos de logística y gestión más eficiente de su cadena productiva. Aun así, el reglamento de la UE invita a las empresas que desarrollan estas herramientas a comprometerse voluntariamente a seguir códigos éticos y de transparencia.

Aplicación escalonada

Aunque es hoy cuando la ley entra oficialmente en vigor, sus principales normas se aplicarán de forma escalonada a lo largo de los próximos tres años, un margen que se ha establecido para que tanto sector público como privado puedan adaptarse a los cambios. Así pues, los sistemas de riesgo inaceptable se prohibirán a partir del 2 de febrero de 2025, los sistemas de IA generativa se limitarán desde el 2 de agosto de 2025 y el amplio grueso de obligaciones deberá acatarse desde el 2 de agosto de 2026. Las cláusulas aplicadas a la IA de alto riesgo en productos ya regulados como la aviación o los productos sanitarios esperarán hasta el 2 de agosto de 2027.

Suscríbete para seguir leyendo