Nueva ley en la UE
La regulación europea de la inteligencia artificial, en 3 claves
La UE aprueba la primera ley sobre IA del mundo
Carles Planas Bou
Periodista
Periodista tecnológico entre el mundo digital y la política internacional. Centrado en capitalismo de plataformas, IA, vigilancia y derechos digitales. Excorresponsal en Berlín durante más de cuatro años, cubrió los gobiernos de Merkel, la crisis de los refugiados y el auge de la extrema derecha. También ha trabajado en Europa Central y en Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con TV3, TVE, Deutsche Welle, Catalunya Ràdio, El Orden Mundial o El Salto.
La ley europea de la inteligencia artificial (IA) está más cerca que nunca. Este miércoles, el Parlamento Europeo dará luz verde a la primera regulación horizontal de esta tecnología en todo el mundo tras el "histórico" acuerdo político sellado el pasado mes de diciembre.
Fue en abril de 2021 cuando la Comisión Europea propuso la elaboración de un reglamento que dictaminase una serie de requisitos para los usos de la IA según su riesgo. A finales de 2022, cuando parecía haber consenso, la irrupción de ChatGPT devolvió a los legisladores a la casilla de salida. Casi tres años después de esa primera propuesta, el bloque comunitario ha pactado un texto legislativo que marcará los próximos años.
Aquí resumimos las tres claves que hay que saber sobre este ambicioso proyecto.
Categorización según riesgos
La iniciativa conocida como AI Act categoriza los sistemas de IA según los peligros que entrañen para la sociedad. Bruselas establece cuatro estadios distintos. Así, prohibirá los que supongan un "riesgo inaceptable". Es el caso de la manipulación cognitivo-conductual, la clasificación de personas en base a su comportamiento o estatus socioeconómico, o los programas de identificación biométrica en tiempo real.
Un escalón por debajo están los usos de "alto riesgo", permitidos, pero sujetos a estrictas obligaciones. Así, los sistemas que puedan afectar negativamente a la seguridad o a los derechos fundamentales —aplicados en ámbitos como la educación, los automóviles o en el control de fronteras— serán evaluados antes de su comercialización y también durante su ciclo de vida.
En el tercer peldaño están las IA con un riesgo de manipulación "limitado". Se refiere a asistentes virtuales o a sistemas generativos como ChatGPT. Estos deberán cumplir con criterios de transparencia como informar a los usuarios de que están interactuando con una máquina o de que los contenidos que ha creado son sintéticos.
Por último están las que no tienen riesgo o uno "mínimo". Son las IA presentes en la mayoría de servicios digitales que usamos, desde videojuegos a filtros de correo basura. Estas pueden usarse sin necesidad de cumplir con ninguna norma en especial.
IA generativa
2023 fue el año de la eclosión de la IA generativa, los modelos que se alimentan de grandes volúmenes de datos de internet para ser capaces de crear de forma automatizada todo tipo de textos, imágenes o audios. La regulación de estas aplicaciones fue también uno de los aspectos más discutidos entre los legisladores europeos. El texto acordado en diciembre establece que las compañías responsables de esos programas, como Microsoft o Google, deberán ser transparentes e indicar con qué datos los entrenan para evitar así posibles violaciones de los derechos de autor.
Francia es el país que más ha presionado para diluir esas obligaciones, pues considera que perjudicarán a 'startups' europeas de IA como la francesa Mistral AI. También lo han hecho empresas como OpenAI, creadora de ChatGPT. El acuerdo final no incluye la rebaja solicitada por París y Silicon Valley.
Excepciones y amenazas
La última clave es quizás la más polémica y crucial: la vigilancia biométrica. En junio, el Parlamento Europeo prohibió el uso de sistemas como el reconocimiento facial, considerado por las organizaciones en defensa de la privacidad como una amenaza a los derechos fundamentales. El acuerdo político sellado en diciembre veta la identificación en tiempo real, pero añade varias excepciones que benefician especialmente a policía y ejércitos. Así, las fuerzas y cuerpos de seguridad podrán usar esta tecnología en espacios públicos y con una autorización judicial previa para casos limitados como terrorismo, trata de personas o localizar a violadores.
Suscríbete para seguir leyendo
- Cambio de horarios en los colegios de España: malas noticias para los padres
- El apellido de origen gitano que tienen más de tres millones de españoles
- Barcelona suspende el 'Correfoc' de las fiestas de Gràcia 2024 por una grave desavenencia entre 'colles
- El Mundo Today | Cierra un club cannábico de Barcelona porque sus clientes son incapaces de recordar dónde está
- Los Mossos creen que los agentes detenidos abusaron de su 'conocimiento' en 'protección de personalidades' para facilitar la fuga de Puigdemont
- Una vaguada de aire frío amenaza con traer fuertes tormentas y una bajada de las temperaturas en las próximas horas
- Carlos Sobera, sorprendido tras conocer el trabajo de una soltera de 'First dates': 'Espero no verte más
- El Burger King paralizado por sus trabajadores tras superar los 34 grados llevaba desde abril con la refrigeración averiada