Cuenta de usuario

Acuerdo histórico: La UE establece las primeras reglas globales para la Inteligencia Artificial

[favorite_button]
Comentar

En medio de los desafíos de las nuevas tecnologías en el mundo y tras un amplio e intenso debate, las instituciones de la Unión Europea han pactado una ley de inteligencia artificial (IA), la cual permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas. Este acuerdo deberá ser ratificado en el Parlamento Europeo y El Consejo de Seguridad de la UE.

De esta manera, este proyecto de reglamento tiene como objetivo garantizar que los sistemas de IA comercializados en el mercado europeo y utilizado en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. Asimismo, busca estimular la inversión y la innovación en IA en Europa.

Por su parte, Carme Artigas, secretaria de Estado española de Digitalización e Inteligencia Artificial, señaló que este es un gran logro histórico que marca el inicio de un futuro prometedor. También destacó que “este acuerdo aborda efectivamente un desafío global en un entorno tecnológico en rápida evolución en un área clave para el futuro de nuestras sociedades y economías. Y en este esfuerzo, logramos mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de la inteligencia artificial en toda Europa, respetando plenamente los derechos fundamentales de nuestros ciudadanos”.

La Ley de IA se centra en regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque “basado en el riesgo” cuando mayor es el riesgo, más estrictas son las reglas. Por ello, como primera propuesta legislativa de este tipo, puede establecer un estándar global para la regulación de la inteligencia artificial en otras jurisdicciones.

Elementos principales del acuerdo de la Ley de Inteligencia Artificial

Estos son los principales elementos del acuerdo provisionales de la Ley de IA:

  • Implementación de reglas relacionadas con modelos de Inteligencia Artificial (IA) de propósito general de alto impacto que podrían representar riesgos sistémicos en el futuro. Además, se menciona la aplicación de normativas específicas para sistemas de IA considerados de alto riesgo. Se propone un sistema revisado de gobernanza que otorga ciertos poderes de ejecución a nivel de la Unión Europea (UE).
  • Ampliación de la lista de prohibiciones, permitiendo la utilización de identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos. No obstante, esta medida está sujeta a salvaguardias para garantizar su uso adecuado y proteger la privacidad.
  • Se busca una mejor protección de los derechos a través de la obligación de que aquellos que implementen sistemas de inteligencia artificial (IA) de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en funcionamiento dicho sistema de IA.

Definiciones y alcances

Según la UE, este acuerdo busca centrase en garantizar una definición clara de los sistemas de inteligencia artificial (IA), alineándola con la propuesta de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Además, el acuerdo provisional especifica que la regulación no abarca áreas más allá de la jurisdicción de la Unión Europea (UE) y no afectará las competencias de los Estados miembros en seguridad nacional. Se destaca que la ley de IA no se aplicará a sistemas con fines exclusivamente militares o de defensa, y tampoco se extenderá a aquellos utilizados exclusivamente para investigación e innovación, así como a usuarios no profesionales de la IA.

Clasificación de los sistemas IA como prácticas prohibidas de alto riesgo

Esta ley establece una capa horizontal de protección, con una clasificación de alto riesgo, para evitar la regulación excesiva de sistemas de inteligencia artificial (IA) que no representen amenazas graves a los derechos fundamentales. Los sistemas de IA de riesgo limitado estarían sujetos a requisitos de transparencia mínimos, como revelar su generación por IA para que los usuarios tomen decisiones informadas.

Para los sistemas de IA de alto riesgo, se permitiría su uso, pero con requisitos específicos y obligaciones para acceder al mercado de la UE, ajustados para ser técnicamente viables y menos onerosos. El acuerdo también aclara las responsabilidades en cadenas de valor complejas de desarrollo y distribución de IA, definiendo roles para proveedores y usuarios.

En este acuerdo se destaca la prohibición de ciertos usos de la IA en la UE, como la manipulación cognitiva, la eliminación no selectiva de imágenes faciales, el reconocimiento de emociones en entornos laborales y educativos, la puntuación social, la categorización biométrica para inferir datos sensibles y algunos casos de vigilancia policial predictiva.

Excepciones de la ley de IA

Considerando las necesidades específicas de las autoridades encargadas de hacer cumplir la ley y la importancia de preservar su capacidad para utilizar la inteligencia artificial (IA) en sus funciones esenciales, se acordaron ajustes en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Estos cambios buscan respetar la confidencialidad de los datos operativos sensibles relacionados con las actividades de dichas autoridades.

Del mismo modo, se introdujo un procedimiento de emergencia que permite a las agencias encargadas de hacer cumplir la ley desplegar, en casos urgentes, una herramienta de IA de alto riesgo que no haya pasado el procedimiento de evaluación de conformidad. Sin embargo, se implementó un mecanismo específico para garantizar la protección adecuada de los derechos fundamentales ante posibles usos indebidos de los sistemas de IA.

En cuanto al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, el acuerdo provisional clarifica los casos en los que dicho uso es estrictamente necesario para fines policiales y permite excepciones solo en situaciones específicas, como víctimas de ciertos delitos, la prevención de amenazas genuinas como ataques terroristas, y la búsqueda de personas sospechosas de delitos graves. Se establecen salvaguardias adicionales para limitar estas excepciones y garantizar la protección de los derechos fundamentales.

Modelos básicos de la IA

Se han incorporado disposiciones adicionales para abordar situaciones en las que los sistemas de inteligencia artificial (IA) se utilizan para diversos propósitos (IA de propósito general) y cuando la tecnología de IA de propósito general se integra posteriormente en otro sistema de alto riesgo. El acuerdo provisional también contempla casos específicos de los sistemas de IA de propósito general (GPAI).

Además, se han establecido reglas específicas para los modelos básicos, que son sistemas grandes, capaces de realizar diversas tareas distintivas, como generar vídeo, texto, imágenes, mantener conversaciones en lenguaje natural, realizar cálculos informáticos o generar código informático de manera competente.

De esta manera, el acuerdo estipula que los modelos básicos deben cumplir con obligaciones específicas de transparencia antes de ser comercializados. Se ha implementado un régimen más riguroso para los modelos de fundaciones de “alto impacto”, que son modelos básicos entrenados con grandes conjuntos de datos y con una complejidad y rendimiento avanzados, lo que podría generar riesgos sistémicos a lo largo de la cadena de valor.

Penalización por incumplimiento

Específicamente, las multas por violaciones de la Ley de IA se determinan como un porcentaje de la facturación anual global del infractor en el año financiero anterior o una cantidad predeterminada, siendo la cifra mayor. Para violaciones de aplicaciones de IA prohibidas, la multa sería de 35 millones de euros o el 7%; para violaciones de obligaciones de la Ley de IA, sería de 15 millones de euros o el 3%; y para suministrar información incorrecta, la multa sería de 7,5 millones de euros o el 1,5%.

Sin embargo, el acuerdo provisional establece límites más proporcionados para multas administrativas en caso de infracción de las disposiciones de la Ley de IA, dirigidos especialmente a pymes y empresas de nueva creación. Este acuerdo subraya que tanto personas físicas como jurídicas tienen el derecho de presentar quejas ante la autoridad de supervisión del mercado pertinente en caso de incumplimiento de la Ley de IA, y estas quejas se procesarán de acuerdo con los procedimientos específicos de esa autoridad.

Temas relacionados

Compartir Noticia

Facebook
Twitter
LinkedIn
WhatsApp
Noticias destacadas
Más Noticias

Escríbanos y uno de nuestros asesores le contactará pronto

Reciba atención inmediata mediante nuestros canales oficiales aquí:

Preinscríbete y recibe información ampliada
XIX Congreso Nacional de Salud

* Todos los campos son requeridos

Días
Horas
Min.
Seg.
Tu carrito de compras está vacío.

Volver a la tienda

¡Gracias por su información!

El formulario ha sido enviado exitosamente, por favor verifique su bandeja de correo electrónico, enviaremos información ampliada sobre el XIX Congreso Nacional de Salud.

Pronto uno de nuestros asesores te contactará.