El miércoles 13 de marzo de 2024 se ha convertido ya en una fecha histórica. Fue el día en el que el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales, el Estado de derecho y la sostenibilidad al tiempo que impulsa la innovación y erige a Europa en líder del sector.
La Ley de IA de la UE divide la tecnología en categorías de riesgo, que van desde “inaceptable” (que prohibiría la tecnología) hasta peligro alto, medio y bajo. El Reglamento, al que los políticos de la UE han llamado “la primera ley vinculante del mundo sobre inteligencia artificial", fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones y fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto. De este modo, el reglamento establece normas armonizadas para la comercialización, la puesta en servicio y el uso de sistemas de inteligencia artificial en la Unión Europea, siguiendo un enfoque basado en el riesgo.
Se espera que la Ley de IA se convierta oficialmente en ley en mayo o junio, después de algunas formalidades finales, incluida la bendición de los países miembros de la UE. Las disposiciones comenzarán a entrar en vigor por etapas y los países deberán prohibir los sistemas de IA prohibidos seis meses después de que las normas entren en los libros legales. En lo que respecta a su aplicación, cada país de la UE creará su propio organismo de control de la IA, al que los ciudadanos podrán acudir si creen que han sido víctimas de una violación de las normas. Mientras tanto, Bruselas creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para los sistemas de IA de uso general.
Como base de las normativas que se están desarrollando sobre inteligencia artificial, cuanto más riesgo supone una aplicación de IA, se requerirá mayor escrutinio. Aunque la mayoría de los sistemas de IA son de bajo riesgo, como los sistemas de recomendación de contenidos o los filtros de spam, en usos de alto riesgo (dispositivos médicos, infraestructuras -redes de agua o eléctricas-) se tendrán que garantizar requisitos más estrictos, como el uso de datos de alta calidad y el suministro de información clara a los usuarios.
También se contempla la prohibición de aquellos usos de la IA que plantean riesgos inaceptables, como los sistemas de puntuación social que rigen el comportamiento de las personas, algunos tipos de vigilancia policial predictiva y sistemas de reconocimiento de emociones en las escuelas y los lugares de trabajo.
Los desarrolladores de modelos de inteligencia artificial de propósito general deberán proporcionar un resumen detallado del texto, imágenes, videos y otros datos en Internet que se utilizan para entrenar los sistemas, así como cumplir con la ley de derechos de autor de la UE. Respecto a las imágenes, vídeos o audios generados por esta tecnología, la normativa obligará a etiquetarlos como manipulados artificialmente.
Además, las empresas que proporcionen estos sistemas tendrán que evaluar y mitigar los riesgos, informar de cualquier incidente grave, implementar medidas de ciberseguridad y revelar cuánta energía utilizan sus modelos.
La presidenta del Parlamento Europeo, Roberta Metsola, describió la ley como pionera y dijo que permitiría la innovación y al mismo tiempo salvaguardaría los derechos fundamentales: “La inteligencia artificial ya forma parte de nuestra vida diaria. Ahora también será parte de nuestra legislación”, escribió en una publicación en las redes sociales.
Las violaciones de la Ley de IA podrían generar multas de hasta 35 millones de euros o el 7% de los ingresos globales de una empresa. Se espera que la Ley de IA actúe como una señal global para otros gobiernos que luchan por regular esta tecnología de rápido desarrollo.
© Imágenes: Shutterstock
Blog ÓN
Comité de contenidos