La IA se regula: Una mirada a la innovadora Ley de Inteligencia Artificial de la UE
La IA está transformando el mundo que nos rodea y, con su extraordinario potencial, surgen muchas preguntas sobre la seguridad, la equidad y su impacto en nuestras vidas. La nueva Ley de Inteligencia Artificial de la UE, supervisada por la nueva Oficina Europea de Inteligencia Artificial, aborda estas cuestiones de frente y ofrece un marco pionero para el desarrollo y uso responsable de la IA.
Imagínese esto: un sistema de inteligencia artificial que puede predecir su estado de ánimo mejor que usted, o un coche que siempre le lleva por la ruta más pintoresca… lo quiera usted o no.
¿Qué es la Ley Europea de Inteligencia Artificial y en qué consiste?
La Ley de IA pretende equilibrar la innovación con la salvaguardia de los derechos de los usuarios, clasificando los sistemas de IA en cuatro niveles en función del nivel de riesgo potencial que plantean.
Los niveles de la Ley de IA de la UE son:
- Riesgo inaceptable: Aplicaciones de IA prohibidas que amenazan los derechos de los ciudadanos. Entre ellas se incluyen los sistemas que categorizan a las personas en función de rasgos sensibles como la raza o los rasgos faciales, la tecnología de reconocimiento facial no selectiva, el reconocimiento de emociones en lugares de trabajo y escuelas, la puntuación social de uso general, la vigilancia policial predictiva y la IA diseñada para explotar vulnerabilidades o manipular el comportamiento humano. Esencialmente, la tecnología del Gran Hermano no se verá afectada por esta legislación.
- Alto riesgo: La IA se utiliza en áreas críticas como las infraestructuras, la educación, la seguridad, la aplicación de la ley y otras. Pensemos en la IA médica que diagnostica enfermedades, la IA que optimiza las redes eléctricas o incluso la IA que juzga en los tribunales. Estos sistemas de alto riesgo podrían ser increíblemente beneficiosos para la sociedad, pero también necesitan barandillas y un manejo meticuloso para limitar el potencial de daños por mal funcionamiento o uso indebido.
- Riesgo limitado: Tecnologías de IA generalmente de bajo riesgo, siendo la transparencia un requisito clave para su uso. La Ley de IA insiste en que sepas cuándo estás interactuando con IA, así que no confundas a tu nuevo amigo bot con un amigo de verdad (todavía).
- Riesgo mínimo: La IA de los videojuegos o los filtros de spam entran en esta categoría. No es necesario llamar a los reguladores.
Pero eso no es todo. Además de estos requisitos específicos para la IA de alto riesgo, la Ley de IA también contempla requisitos que afectan tanto a las obligaciones de IA de alto riesgo como a otras categorías que conllevan riesgo:
- Explicabilidad: Evita las decisiones de «caja negra» y elimina los sesgos en la lógica y los procesos de la IA.
- Cajas de arena reguladoras: Permiten a las empresas, sobre todo PYME y startups, probar y desarrollar IA innovadora
- Auditoría de contenidos de formación: Las tecnologías de IA de propósito general (GPAI) deben cumplir requisitos de transparencia y proporcionar registros y resúmenes de los recursos y contenidos utilizados para su formación. Algunos tipos de GPAI estarán sujetos a otros requisitos y evaluaciones, como la notificación de incidentes y las evaluaciones de riesgos.
Consecuencias del incumplimiento de la Ley de AI de la UE
La Ley de Inteligencia Artificial de la UE se toma en serio las infracciones y las multas son lo suficientemente elevadas como para que incluso los gigantes tecnológicos revisen su código.
- Nivel 1: Uso de sistemas de IA prohibidos – Las multas más severas (hasta 35.000.000 euros o el 7% de la facturación global anual) se aplican al uso de sistemas de IA considerados de riesgo inaceptable.
- Nivel 2: Incumplimiento de las obligaciones en materia de IA de alto riesgo – No cumplir los requisitos de la Ley para los sistemas de IA de alto riesgo podría acarrear multas de hasta 15.000.000 de euros.
- Nivel 3: Engañar a las autoridades reguladoras – Facilitar información incorrecta, incompleta o engañosa a las autoridades acarrea multas de hasta 7.500.000 euros o el 1% de la facturación global anual.
Dicho esto, la Ley de AI reconoce los retos a los que se enfrentan las empresas más pequeñas. Permite reducir las multas para las PYME y las empresas de nueva creación en función de la gravedad de la infracción y de otros factores. En general, cada Estado miembro determinará cómo aplicar estas disposiciones en su ordenamiento jurídico.
¿Quién es responsable?
La Ley de IA responsabiliza a múltiples partes de garantizar un uso ético de la IA. Esto incluye a proveedores, implantadores, importadores, distribuidores y organismos notificados (responsables de las evaluaciones). Incluso los proveedores de modelos GPAI pueden ser considerados responsables si sus modelos se incorporan posteriormente a sistemas perjudiciales.
Situación y calendario de la Ley de IA de la UE: plazos de transposición y adopción
La Ley de AI de la UE está siendo objeto de los últimos preparativos antes de su adopción oficial, y se espera que esté terminada antes de que finalice la actual sesión legislativa.
Una vez publicada en el Diario Oficial de la Unión Europea, la Ley se convertirá oficialmente en ley 20 días después. No obstante, las distintas disposiciones entrarán en vigor de forma escalonada.
La mayoría de las disposiciones de la ley, incluidas las que regulan la IA de alto riesgo, serán plenamente aplicables 24 meses después de su entrada en vigor. Hay algunas excepciones a este plazo:
- Prácticas de IA prohibidas: Las prohibiciones de sistemas de IA inaceptables entrarán en vigor antes, sólo seis meses después de la fecha de entrada en vigor.
- Códigos de buenas prácticas: Las directrices de cumplimiento voluntario serán aplicables nueve meses después de la fecha de entrada en vigor.
- IA de propósito general: Las normas específicas para modelos de IA a gran escala, incluidos los requisitos de gobernanza, se aplicarán 12 meses después de la fecha de entrada en vigor.
Es importante tener en cuenta que las fechas exactas dependen de cuándo la legislación complete la fase final de revisión y publicación, y que esta ley está diseñada para adaptarse a un campo que cambia día a día.
Por qué la Ley de Inteligencia Artificial tiene repercusiones mundiales y qué viene después
La Ley de la IA refleja la creciente concienciación mundial sobre la necesidad de equilibrar las extraordinarias posibilidades de la IA con consideraciones éticas. Responde a preocupaciones del mundo real y puede influir en el desarrollo responsable de la IA mucho más allá de Europa.
He aquí por qué esta legislación sienta un precedente crucial:
- Fomento de la confianza: Al definir claramente las expectativas de una IA segura y justa, la Ley aumenta la confianza del público en los sistemas de IA. Esto asegura a la gente que existen salvaguardias para proteger sus derechos y experiencias.
- Protección de los derechos: crea salvaguardias contra la discriminación alimentada por la IA, la actuación policial predictiva sesgada y garantiza que la IA no se convierta en una herramienta para suprimir las libertades individuales.
- La Ley fomenta el desarrollo de una IA segura y ética, promoviendo un sector tecnológico próspero y responsable.
La Ley de IA de la UE es un gran paso para garantizar que la IA beneficie a la sociedad al tiempo que salvaguarda los derechos fundamentales. Sin embargo, la tecnología y la normativa de la IA evolucionan rápidamente. Debido a su gran alcance, podríamos asistir a una reacción en cadena de la normativa, ya que otros países siguen el ejemplo de la UE y se apresuran a redactar sus propios reglamentos sobre IA.
Podemos esperar revisiones y nuevas normativas para abordar las complejidades que sin duda surgirán a medida que los seres humanos y la IA sigan coexistiendo. Esperemos que, con una legislación proactiva como la Ley de IA de la UE, algún día no necesitemos ese metafórico interruptor de apagado para todo Internet. Esté atento.
Fuente de la publicación: NAVEX.
Recuperado de https://www.navex.com/en-us/blog/article/ai-gets-rules-a-look-at-the-groundbreaking-eu-ai-act/ (Traducido por ICR).