La ley de inteligencia artificial de la Unión Europea es la primera ley integral sobre esta materia en el mundo
La idea de la UE es una mejor regulación del uso y desarrollo de esta innovadora tecnología
Hay muchos beneficios derivados de la inteligencia artificial. Por ejemplo, en el mundo sanitario, que los medios de transporte sean más seguros y limpios, en la producción más eficiente, en una energía más sostenible.
Primer paso en la legislación y tipos de IA según la UE
El primer hito en la legislación se plasma en abril de 2021, cuando la Comisión propuso hacer una clasificación según el riesgo que la I.A suponga para los usuarios. A mayor peligro o riesgo mayor regulación.
Pero primero ¿sabemos que es la inteligencia artificial exactamente? A un nivel muy general la I.A supone que una máquina pueda hacer lo mismo que hace un ser humano, incluido el razonar o pensar, crear o la capacidad de planificar.
La máquina recibe datos (a través de una cámara o sensor), los procesa y responde a ellos.
Algunos inventos de IA tienen ya más de 50 años, pero otros como el desarrollo de la IA en la informática son mucho más recientes.
¿Qué tipos de inteligencia artificial hay según la UE?
Software: asistentes virtuales, software de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento de voz y rostro
Inteligencia artificial integrada: robots, drones, vehículos autónomos, Internet de las Cosas
La prioridad del Parlamento Europeo en la legislación sobre I.A
Según el Parlamento, los sistemas de IA utilizados en la UE deben ser seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Además, deben ser supervisados por personas, en lugar de por otras máquinas o robots.
El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.
Niveles de riesgo de la IA
Riesgo inaceptable
El primero es el Riesgo inaceptable, cuando los sistemas suponen una amenaza para las personas. Entonces, están prohibidos
Incluyen:
- Los juguetes con mensajes que fomentan comportamientos peligrosos en los niños
- La puntuación social: O lo que es lo mismo clasificar a las personas según sus comportamientos, situación económica o características personales
- sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Segundo Nivel. Alto riesgo
Son de alto riesgo los sistemas de I.A que afecten a la seguridad o a los derechos fundamentales
Se dividen en 2 categorías:
1ª La relacionada con la seguridad de productos Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
2ª Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:
- identificación biométrica y categorización de personas físicas
- gestión y explotación de infraestructuras críticas
- educación y formación profesional
- empleo, gestión de trabajadores y acceso al autoempleo
- acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
- aplicación de la ley
- gestión de la migración, el asilo y el control de fronteras
- asistencia en la interpretación jurídica y aplicación de la ley.
IA Generativa (como por ejemplo CHAT GPT)
A esta se le exigen ciertos principios de transparencia:
-que se diga que se ha usado IA para hacer un contenido
-diseñar el modelo para evitar que genere contenidos ilegales
-publicar resúmenes de los datos protegidos por derechos de autor usados para el entrenamiento
Riesgo limitado
Debe tratarse de sistemas que sean lo suficientemente transparentes para permitir a los usuarios tomar decisiones con conocimiento de causa. El usuario puede determinar si quiere seguir usando las aplicaciones o no. Esto incluye los sistemas de IA que generan contenidos de imagen, audio o video
Segundo paso en la Legislación. Borrador reglamento diciembre 2023
EL 11 de diciembre de este 2023 la presidencia del Consejo y los negociadores del Parlamento Europeo llegaron a un acuerdo provisional para armonizar la legislación sobre IA, la llamada Ley de inteligencia artificial
Se crea un borrador de Reglamento con el objetivo de que los sistemas de IA sean seguros y respeten los derechos fundamentales. Como ya mencionábamos al principio, la intención es que la IA se clasifique normativamente en función de su capacidad para causar daño a la sociedad con un enfoque basado en el riesgo.
Los principales elementos del acuerdo provisional
En comparación con la propuesta inicial de la Comisión Europea, los principales elementos nuevos del acuerdo provisional pueden resumirse como sigue:
- Reglas sobre modelos de IA de propósito general de alto impacto que puedan causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo
- Un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE
- Ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias.
- Una mejora en la protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA.
¡Análisis del entorno informático con Aratecnia!
Aratecnia te ofrece consultoría especializada para optimizar tu entorno informático.
Descubre más sobre nuestro servicio.
Alcance del reglamento
Es importante diferenciar los sistemas o programas de IA de otros programas de software más simples. Para ello se da una definición de IA alineada con el enfoque propuesto por la OCDE, la Organización para la Cooperación y el Desarrollo Económicos
En cuanto a área territorial, el Reglamento no sale fuera de la legislación de la UE y no debería, en ningún caso, afectar las competencias de los Estados miembros en materia de seguridad nacional. La ley de IA tampoco se aplica en cuestiones que afectan a la defensa o militares o los sistemas que solo sean para la investigación o innovación.
Respecto a los riesgos hay sistemas que se consideran inaceptables y serán prohibidos por la UE. El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitivo-conductual, la eliminación no selectiva de imágenes faciales de Internet o imágenes de CCTV, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o creencias religiosas y algunos casos de vigilancia policial predictiva para individuos.
Especificaciones derivadas de las autoridades encargadas de hacer cumplir la ley
Se ha ideado un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar en caso de urgencia una herramienta de inteligencia artificial de alto riesgo que no haya pasado el procedimiento de evaluación de la conformidad. Sin embargo, también se ha introducido un mecanismo específico para garantizar que los derechos fundamentales estén suficientemente protegidos contra posibles usos indebidos de los sistemas de IA.
Excepcionalmente también debe permitirse a las Fuerzas y Cuerpos de Seguridad que usen sistemas biométricos remotos en tiempo real en espacios de acceso público cuando sea necesario por la gravedad de la situación
Sistemas de IA de propósito general y modelos básicos
Se ha regulado el caso de que la tecnología de IA de propósito general se integre posteriormente en otro sistema de alto riesgo
Se han acordado también normas para los modelos básicos, grandes sistemas capaces de crear texto, vídeo, imágenes, audio, etc, y deberán cumplir obligaciones de transparencia antes de su comercialización.
Oficina de la IA dentro de la Comisión Europea
Se crea una Oficina de IA dentro de la Comisión encargada de supervisar los modelos de IA más avanzados, contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las normas comunes en todos los estados miembros. Un panel científico de expertos independientes asesorará a la Oficina de AI sobre los modelos GPA
Igualmente existirá una Junta de AI, como órgano asesor de la Comisión en IA. Y finalmente se creará un Foro consultivo para las partes interesadas
Materia sancionadora
Las multas por infracción de la ley de AI son un porcentaje de la facturación anual global de la empresa infractora y van desde 35 millones de euros o el 7% por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% por violaciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta.
Igualmente, ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo.
Hay que decir que la ley será de aplicación 2 años después de su entrada en vigor. Como esto es un Acuerdo provisional, en los próximos meses se trabajará para ultimar los detalles del nuevo Reglamento