La Unión Europea aprobó la primera ley de Inteligencia Artificial: cuáles son los puntos más importantes
La Unión Europea (UE) acordó una ley de Inteligencia Artificial (IA) para regular e invertir en esta tecnología y así competir con gigantes como China y Estados Unidos. “La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar”, expresó la presidenta de la Comisión Europea, Ursula von der Leyen, después de 36 horas de negociación.
Todavía tienen que ratificar la nueva ley el Parlamento Europeo y el Consejo de la UE. El texto acordado contempla distintos aspectos que fueron reglamentados o directamente prohibidos.
Reconocimiento facial
Uno de los puntos más controvertidos que se conversaron fue la utilización que las fuerzas del orden pueden hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional. En este sentido, se resolvió que, con previa autorización judicial, se podrá usar este método para prevenir una amenaza terrorista “genuina y previsible” o “genuina y presente”, es decir, que esté ocurriendo en ese momento.
También se podrán emplear para localizar o identificar a una persona que cometió delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental. Además, las cámaras podrán usarse para buscar a las víctimas de estos ataques. Este fue uno de los centros del debate ya que diferían las opiniones sobre si ampliar la lista de crímenes a reconocer con IA, a la vez que no se violen los derechos humanos universales básicos.
Prohibiciones
La ley, además, prohíbe todos los sistemas de clasificación biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Tampoco se pueden usar los sistemas que puntúan a las personas en función de su comportamiento o características personales. En este sentido, se prohibieron los sistemas de IA que son capaces de manipular el comportamiento humano.
Por otra parte, los sistemas para ampliar o crear bases de datos faciales captando información de forma indiscriminada a través de internet o de grabaciones audiovisuales, están vetados por la UE. En este sentido, no se podrán usar herramientas de IA para detectar emociones en establecimientos educativos y laborales.
Modelos generativos
El otro gran aspecto que fue un centro de las negociaciones es la regulación de los sistemas de IA generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google. Estas herramientas tienen que cumplir, a partir de esta ley, ciertos criterios de transparencia, como dejar en claro si un texto, una canción o una fotografía se generaron a través de la IA y garantizar que los datos que se emplearon para entrenar a los sistemas respetan los derechos de autor.
En un comienzo, la ley no estaba pensada para regular este tipo de sistemas, porque no eran muy populares cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias señalaron la necesidad de legislarlos desde el estallido de ChatGPT en 2022. El reglamento no restringe su utilización pero sí estableció una serie de criterios para detectar los modelos que pueden ser peligrosos en función del contexto en el que se usen. Además, obliga a sus desarrolladores a cumplir normas más estrictas antes de sacarlos al mercado.
El criterio de reglamentación
Las discusiones fueron intensas, ya que el objetivo de la ley es regular el uso de una tecnología con grandes posibilidades para la civilización, que al mismo tiempo genera incertidumbre en cómo se va a desenvolver, con preguntas que ni los desarrolladores saben responder todavía, según fuentes conocedoras de los debates.
Se tuvieron muchos recaudos con los tipos de IA que se puedan usar para influir en el resultado de unas elecciones, o los que empleen las instituciones financieras para evaluar la solvencia y establecer la calificación crediticia.
En este sentido, la presidencia española del Consejo la UE logró uno de sus principales objetivos en este semestre con el acuerdo de esta ley pionera en el mundo. “Hemos logran un hito importante, que los ciudadanos podemos decidir qué se puede hacer y qué no con la inteligencia artificial”, planteó la secretaria de Estado española de Telecomunicaciones e Infraestructura Digital, Carme Artigas.
La norma propone la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de expertos y de organizaciones de la sociedad civil. La legislación entra en vigor en 2026 pero se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas de inteligencia artificial indicados llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12.
Quienes violen el reglamento deberán pagar multas con un rango que va desde los 35 millones de euros (37,6 millones de dólares) o el 7 % del volumen global de negocio de las compañías, hasta los 7,5 millones de euros (8 millones de dólares) o el 1,5 % del volumen global de negocio.