Los legisladores europeos aprueban la primera ley completa del mundo sobre IA

La nueva legislación, aprobada por parlamentarios europeos, se aplica a los productos de IA en el mercado de la UE, independientemente de dónde se hayan desarrollado. FOTO: JEAN-FRANCOIS BADIAS/ASSOCIATED PRESS

La ley de la UE es el primer conjunto completo de normas sobre inteligencia artificial (IA), que incluye nuevas restricciones sobre su uso. La nueva legislación se aplica a los productos de IA en el mercado de la UE, independientemente de dónde se hayan desarrollado. Está respaldada por multas de hasta el 7% de los ingresos mundiales de una empresa.


BRUSELAS- Los parlamentarios europeos aprobaron la legislación más completa del mundo sobre inteligencia artificial (IA), que establece normas de gran alcance para los desarrolladores de sistemas de IA y nuevas restricciones sobre cómo se puede utilizar esta tecnología.

El Parlamento Europeo votó el miércoles la aprobación definitiva de la ley, tras alcanzar un acuerdo político el pasado diciembre con los Estados miembros de la Unión Europea (UE). La normativa, que entrará en vigor gradualmente a lo largo de varios años, prohíbe determinados usos de la IA, introduce nuevas normas de transparencia y exige evaluaciones de riesgo para los sistemas de IA considerados de alto riesgo.

La ley llega en medio de un debate mundial sobre el futuro de la IA y sus posibles riesgos y beneficios a medida que la tecnología es adoptada cada vez más por empresas y consumidores. Elon Musk demandó recientemente a OpenAI y a su director ejecutivo, Sam Altman, por supuesta violación del acuerdo fundacional de la empresa, al dar prioridad a los beneficios frente a las ventajas de la IA para la humanidad. Altman ha dicho que la IA debe desarrollarse con gran cautela y ofrece inmensas posibilidades comerciales.

La nueva legislación se aplica a los productos de IA en el mercado de la UE, independientemente de dónde se hayan desarrollado. Está respaldada por multas de hasta el 7% de los ingresos mundiales de una empresa.

La Ley de Inteligencia Artificial es “la primera norma del mundo que marca un camino claro hacia un desarrollo seguro y centrado en el ser humano de la inteligencia artificial”, declaró Brando Benifei, legislador italiano de la UE que contribuyó a dirigir las negociaciones sobre la ley.

La ley aún necesita la aprobación final de los Estados miembros de la UE, pero se espera que ese proceso sea una formalidad, puesto que ya han dado a la legislación su respaldo político.

Aunque la ley sólo se aplica en la UE, se espera que tenga una repercusión mundial, porque es poco probable que las grandes empresas de IA quieran renunciar a acceder al bloque, que tiene una población de unos 448 millones de habitantes. Otras jurisdicciones también podrían utilizar la nueva ley como modelo para sus normativas sobre IA, contribuyendo a un efecto dominó.

“Cualquiera que pretenda producir o utilizar una herramienta de IA tendrá que someterse a ese reglamento”, afirmó Guillaume Couneson, socio del bufete de abogados Linklaters.

Varias jurisdicciones de todo el mundo han introducido o están estudiando nuevas normas para la IA. El gobierno de Joe Biden firmó el año pasado una orden ejecutiva que exige a las principales empresas de IA que notifiquen al gobierno cuando desarrollen un modelo que pueda plantear riesgos graves. Los reguladores chinos han establecido normas centradas en la IA generativa.

La Ley de IA de la UE es el último ejemplo del papel del bloque como influyente legislador mundial. Otra ley de competencia que entró en vigor para algunos gigantes tecnológicos a principios de este mes obliga a Apple a cambiar sus políticas de App Store y a Google, de Alphabet, a modificar la forma en que aparecen los resultados de búsqueda para los usuarios del bloque. Otra ley centrada en los contenidos en línea obliga a las grandes empresas de redes sociales a informar sobre lo que hacen para combatir los contenidos ilegales y la desinformación en sus plataformas.

La Ley de Inteligencia Artificial no entrará en vigor de inmediato. Se espera que las prohibiciones de la legislación, que incluyen la prohibición del uso de IA de reconocimiento de emociones en escuelas y lugares de trabajo y de la extracción no selectiva de imágenes para bases de datos de reconocimiento facial, entren en vigor a finales de este año. Otras obligaciones entrarán en vigor gradualmente entre el próximo año y 2027.

Con el tiempo, las nuevas normas obligarán a los proveedores de modelos de IA de uso general, que se entrenan con vastos conjuntos de datos y sirven de base a aplicaciones de IA más especializadas, a disponer de documentación técnica actualizada sobre sus modelos. También tendrán que publicar un resumen del contenido que han utilizado para entrenar el modelo.

Los fabricantes de los modelos de inteligencia artificial más potentes -a los que la UE denomina “riesgo sistémico”- deberán someterlos a evaluaciones de seguridad de vanguardia y notificar a las autoridades reguladoras los incidentes graves que se produzcan con sus modelos. También tendrán que aplicar medidas de mitigación de riesgos potenciales y protección de la ciberseguridad, dice la ley.

La propuesta inicial del bloque para la legislación se publicó en 2021, antes de la popularidad generalizada de ChatGPT de OpenAI y otros chatbots impulsados por IA, y las disposiciones sobre IA de propósito general se añadieron durante el proceso legislativo.

Los grupos industriales y algunos gobiernos europeos se opusieron a la introducción de normas generales para la IA de uso general, afirmando que los legisladores deberían centrarse en los usos peligrosos de la tecnología, en lugar de en los modelos que sustentan su uso.

Francia, sede de Mistral AI, y Alemania intentaron suavizar algunas de las propuestas legislativas. El CEO de Mistral, Arthur Mensch, declaró recientemente que la Ley de Inteligencia Artificial -tras algunos cambios en las negociaciones finales que aligeraron algunas obligaciones- sería una carga manejable para su empresa, aunque cree que la ley debería haberse centrado en cómo se utiliza la IA y no en la tecnología subyacente.

Según los legisladores, la Ley de Inteligencia Artificial ha sido uno de los textos legislativos que más presión ha recibido en los últimos años.

Los organismos de control empresarial y algunos legisladores afirmaron que querían que la legislación incluyera requisitos más estrictos -como las normas para las evaluaciones de seguridad y la mitigación de riesgos- para todos los modelos de IA de uso general y no sólo para los modelos más potentes.

El grupo de presión BusinessEurope señaló el miércoles que apoya el enfoque basado en el riesgo de la ley para regular la IA, aunque sostuvo que hay dudas sobre cómo se interpretará la ley en la práctica. El grupo de defensa de los derechos digitales, Access Now, criticó que el texto final de la legislación estaba lleno de lagunas y no protegía adecuadamente a las personas de algunos de los usos más peligrosos de la IA.

Otro elemento de la ley exige un etiquetado claro de los llamados deepfakes, que se refieren a imágenes, audio o video que han sido generados o manipulados por IA y que, de otro modo, podrían parecer auténticos. Los sistemas de IA que los legisladores consideren de alto riesgo, como los utilizados para inmigración o infraestructuras críticas, deben realizar evaluaciones de riesgo y garantizar que utilizan datos de alta calidad, entre otros requisitos.

Los legisladores europeos afirmaron que pretendían flexibilizar la legislación para que pudiera adaptarse a la rápida evolución de la tecnología. Por ejemplo, una parte de la ley establece que la Comisión Europea -el brazo ejecutivo de la UE- puede actualizar los elementos técnicos de su definición de modelos de IA de propósito general en función de la evolución del mercado y la tecnología.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.