El parlamento europeo aprobó la ley de regulación de la IA

El Parlamento Europeo respaldó la normativa que regula el sector de la inteligencia artificial

ACTUALIDAD 13 de marzo de 2024 Neuquén Noticias Neuquén Noticias
donde-se-estudia-inteligencia-artificial-ia-argentina

El Parlamento Europeo avaló este miércoles una de las normas más importantes de la legislatura en la UE y respaldó con rotundidad la ley de inteligencia artificial, con 523 votos a favor. De esta forma se acaba el proceso legislativo para una norma que convierte a Europa en pionera en la regulación del sector.

"Acojo con agrado el apoyo abrumador del Parlamento Europeo a la ley, las primeras reglas integrales y vinculantes del mundo para una IA confiable", celebró el comisario de Mercado Interior, Thierry Breton, tras la decisión de la Eurocámara.

europajpg

Las nuevas normas prohíben determinadas aplicaciones de la IA que amenazan los derechos de los ciudadanos, como los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial.

También se prohíben el reconocimiento de emociones en el lugar de trabajo y en la escuela, el scoring social, la actuación policial predictiva (cuando se basa únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas.

Además se incluye, como se esperaba, uno de los puntos más espinosos. El uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas y cuerpos de seguridad está prohibido en principio, salvo en situaciones exhaustivamente enumeradas y estrictamente definidas.

Los RBI "en tiempo real" sólo pueden desplegarse si se cumplen estrictas salvaguardias, por ejemplo, su uso está limitado en el tiempo y en el ámbito geográfico y sujeto a una autorización judicial o administrativa específica previa. "Tales usos pueden incluir, por ejemplo, la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. El uso de estos sistemas a posteriori (RBI post-remota) se considera un caso de uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito", resume la Eurocámara.

El reglamento aún está sujeto a una última comprobación jurista-lingüística y se espera que se adopte definitivamente antes del final de la legislatura (mediante el llamado procedimiento de corrección de errores). La ley también tiene que ser refrendada formalmente por el Consejo, un paso eso sí que no debería presentar problemas porque la negociación ya se dio en trílogo hace semanas.

¿Qué efectos tienen la ley?

En esta ley pionera a nivel global también se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a su importante perjuicio potencial para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos (por ejemplo, influir en las elecciones).

"Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos", explican.

Por último, los sistemas de IA llamados de propósito general (GPAI), y los modelos GPAI en los que se basan, deben cumplir ciertos requisitos de transparencia, "incluido el cumplimiento de la legislación de la UE sobre derechos de autor y la publicación de resúmenes detallados de los contenidos utilizados para la formación", añaden los eurodiputados. Los modelos GPAI más potentes que podrían plantear riesgos sistémicos se enfrentarán a requisitos adicionales, como la realización de evaluaciones de los modelos, la evaluación y mitigación de los riesgos sistémicos y la notificación de incidentes.

Te puede interesar
Lo más visto