Todo sobre la Ley de Inteligencia Artificial de la Unión Europea
En el último año, la IA ha despertado en muchas personas una gran preocupación: ¿Qué pasa con la información que le damos? ¿La utilizan de forma segura las empresas? ¿Es ético lo que hace? ¿Cómo puede garantizar la privacidad? Para hacer frente a todos estos posibles riesgos y acabar con la incertidumbre, nace la Ley de Inteligencia Artificial de la Unión Europea, que se irá implantando de manera progresiva, y que se espera que para el año 2026, sea de obligada aplicación en todos los estados miembro. Descubre todo lo que se sabe sobre ella.
¿Qué es la Ley de Inteligencia Artificial de la Unión Europea?
Esta ley, tiene como objetivo promover la adopción de la IA, de forma que esté centrada en el ser humano y que no suponga un riesgo para la salud, la seguridad, el medio ambiente y los derechos fundamentales de las personas. Así pues, podemos hablar de 3 objetivos claros:
- Seguridad y Derechos fundamentales: Proteger a los ciudadanos asegurando que los sistemas de IA no pongan en peligro su seguridad, privacidad y derechos fundamentales.
- Fomento de la innovación: Crear un entorno regulatorio que fomente la innovación y la competitividad en el sector de la IA dentro de la UE.
- Transparencia y responsabilidad: los sistemas de IA deben ser claros en su funcionamiento, y las empresas que lo desarrollan, deben proporcionar información clara sobre su uso, realizar auditorías periódicas y garantizar que sus sistemas no perpetúen discriminación, violencia o cualquier forma de daño.
La Ley de inteligencia artificial de la Unión Europea es el primer marco jurídico integral sobre IA en todo el mundo, y busca promover su desarrollo y buen uso a proveedores de sistemas de Inteligencia Artificial que se utilicen o vendan dentro de la UE, sin importar de dónde provengan.
Clasificación de riesgos
La Ley de Inteligencia Artificial de la Unión Europea clasifica los sistemas de IA en función del riesgo que representan para los derechos fundamentales y la seguridad de las personas. Existen cuatro categorías de riesgo:
Riesgo Inaceptable
Dentro de esta categoría, se encuentran aquellos sistemas de IA cuyo uso está prohibido porque presentan una amenaza clara para la seguridad, la privacidad o los derechos fundamentales. Estos son algunos ejemplos:
- Sistemas de manipulación subliminal que pueden causar daño físico o psicológico.
- Sistemas de puntuación social utilizados por gobiernos que evalúan la confiabilidad de los ciudadanos basándose en su comportamiento social.
Este tipo de sistemas están totalmente prohibidos por ley, ya que los riesgos asociados superan cualquier posible beneficio.
Riesgo Alto
Aquí se encuentran aquellos sistemas de IA que se utilizan en contextos críticos, donde pueden afectar a los derechos y la seguridad de las personas. Ejemplos:
- Sistemas de reconocimiento facial utilizados en la vigilancia pública.
- Aplicaciones de IA en infraestructuras críticas (como el transporte y la salud).
- Sistemas de IA utilizados en la contratación y gestión de personal.
- Evaluación de elegibilidad para beneficios sociales.
Estos usos requieren la autorización de un tribunal o de otro órgano independiente y deben cumplir con las siguientes obligaciones:
- Implementación de un sistema de gestión de riesgos a lo largo del ciclo de vida del sistema.
- Asegurar que los datos de entrenamiento, validación y prueba sean representativos, precisos y libres de errores.
- Mantener una documentación exhaustiva para demostrar el cumplimiento de los requisitos.
- Diseñar el sistema para que permita la supervisión y el control humano.
- Proveer información clara sobre el funcionamiento del sistema y su uso.
Riesgo Limitado
Dentro de esta categoría, se encuentran aquellos sistemas de IA que, aunque presentan riesgos menores, requieren algunas medidas para asegurar un uso seguro. Algunos ejemplos son:
- Chatbots que interactúan directamente con los usuarios.
- Sistemas de recomendación que influyen en la toma de decisiones de los usuarios, como por ejemplo, recomendaciones de productos en tiendas online.
Para este tipo de sistemas, es obligatorio informar a los usuarios de que están interactuando con una IA.
Riesgo Mínimo
Aquí entran aquellos sistemas de IA que presentan riesgos mínimos y no requieren medidas regulatorias específicas más allá de las prácticas estándar de desarrollo y uso ético de la tecnología. Algunos ejemplos:
- Filtros de spam en correos electrónicos.
- Sistemas de recomendación de contenido que no afectan decisiones críticas ni derechos fundamentales.
Estos sistemas están sujetos a regulaciones mínimas y de forma general, solo deben seguir las buenas prácticas de desarrollo y operación.
Impacto de la nueva Ley de IA en la industria
Esta nueva ley, tiene implicaciones significativas para las empresas tecnológicas y desarrolladores de IA. Cada una de las empresas, deberá realizar evaluaciones de conformidad y garantizar que sus sistemas cumplen con los requisitos establecidos. Esto podría incluir auditorías externas, documentación detallada y medidas para garantizar la transparencia y la equidad.
A pesar de que esto va a suponer un desafío para la mayoría de las empresas, es también una oportunidad para liderar el desarrollo de una IA que sea ética y responsable.
Multas y penalizaciones
Aunque cada Estado miembro de la UE es responsable de establecer las sanciones y medidas coercitivas aplicables a las infracciones de la ley, vamos a conocer los niveles fijados en el artículo 99 de la ley, según la gravedad de la infracción:
Multas por incumplimiento grave
Dentro de este grupo, se encuentran las prácticas prohibidas de la IA y cuyo uso, se sancionará con multas de hasta 35,000,000 EUR o hasta el 7% del volumen de negocios total anual de la empresa a nivel mundial, lo que sea superior.
Multas por información incorrecta
A las empresas que proporcionen información incorrecta, incompleta o engañosa a las autoridades, se les sancionará con multas de hasta 7,500,000 EUR o hasta el 1% del volumen de negocios total anual de la empresa a nivel mundial, lo que sea superior.
Multas por obligaciones específicas
El incumplimiento de varias obligaciones por parte de operadores y organismos notificados se sancionará con multas de hasta 15,000,000 EUR o hasta el 3% del volumen de negocios total anual de la empresa a nivel mundial, lo que sea superior.
Multas para PYMES
En el caso de las PYMES y las startups, la multas serán ajustadas para ser proporcionales a su tamaño y a su capacidad económica.
Desafíos de la nueva ley y entrada en vigor
La rápida evolución de la IA, hace que las regulaciones deban ser lo suficientemente flexibles para adaptarse a nuevos desarrollos. Además, para conseguir los resultados esperados, la cooperación internacional será fundamental.
Las normas generales sobre IA entrarán en vigor en mayo de 2025 (un año después de su adopción) y las obligaciones específicas para los sistemas de alto riesgo se aplicarán tres años después. Estas normas serán supervisadas por las autoridades nacionales, con el apoyo de la oficina de IA dentro de la Comisión Europea.
Conclusión
La IA ha cambiado el mundo tal y como lo conocíamos, transformando industrias enteras y redefiniendo la manera en que nos relacionamos con la tecnología. La aprobación de esta nueva ley, era un paso necesario, no solo para evitar riesgos en su uso, sino también fomentar su desarrollo de manera ética y segura. Esta ley no solo protege a los individuos, sino que también establece un precedente global para la regulación de la Inteligencia Artificial. A medida que avanzamos, la implementación y el cumplimiento de estas normas serán cruciales para asegurar que la IA continúe mejorando nuestras vidas sin poner en riesgo nuestra seguridad y derechos fundamentales.