La Eurocámara ha dado un firme respaldo a la ley de inteligencia artificial acordada por las instituciones europeas, marcando un hito en la regulación de esta tecnología. Este reglamento, que entrará en vigor dentro de 2 años, tras recibir el visto bueno final de los Estados miembros, se aprobó por una gran mayoría este miércoles 13 de marzo en Estrasburgo, con 523 votos a favor y tan solo 46 en contra.
La nueva norma, en base a niveles de riesgos, prohíbe ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, ofreciendo una protección crucial frente a prácticas invasivas y potencialmente perjudiciales. Se prohíben, por ejemplo, los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales, así como el reconocimiento de emociones en el lugar de trabajo y en las escuelas. Estas medidas aseguran un uso ético y responsable de la IA, priorizando el bienestar y la privacidad de las personas, desde un enfoque preventivo.
Además, el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad se regula con cautela, garantizando su empleo sólo en situaciones específicas y con estrictas salvaguardas. De este modo, se busca equilibrar la seguridad pública con el respeto a los derechos individuales, evitando abusos y asegurando una supervisión adecuada.
Asimismo, se establecen obligaciones claras para los sistemas de IA de alto riesgo, con el objetivo de mitigar cualquier impacto negativo en la salud, la seguridad, el ambiente, la democracia y los derechos fundamentales. Se fomenta la transparencia y la rendición de cuentas, brindando a los ciudadanos el derecho a presentar reclamaciones y recibir explicaciones sobre las decisiones basadas en IA que afecten sus derechos.
Estos sistemas abarcan una variedad de sectores críticos, como infraestructuras esenciales, educación, empleo, servicios públicos y privados vitales (como la atención médica o el sistema financiero, así como aplicaciones en las fuerzas de seguridad, migración, gestión aduanera, justicia y procesos democráticos).
Para mitigar los riesgos asociados, estos sistemas deben someterse a evaluaciones rigurosas, mantener registros detallados de su uso, ser transparentes y precisos, y contar con supervisión humana adecuada.
Los sistemas de inteligencia artificial de uso general y los modelos asociados deben cumplir con requisitos específicos de transparencia, además de adherirse a las leyes de derechos de autor de la Unión Europea. Se requiere que divulguen resúmenes detallados del contenido utilizado para su entrenamiento. Para aquellos modelos más avanzados que puedan representar riesgos sistémicos, se imponen requisitos adicionales, como la realización de evaluaciones exhaustivas, la identificación y mitigación de riesgos, así como la notificación de incidentes.
También, cualquier imagen, audio o video artificial o manipulado, conocido como “ultrafalsificaciones”, debe estar claramente etiquetado como tal para evitar malentendidos o confusiones.
De igual forma, se deberán proporcionar a las pequeñas y medianas empresas, así como a las nuevas empresas, espacios controlados para pruebas y ensayos con sistemas expertos en condiciones reales a nivel nacional. Esto les permitirá desarrollar y entrenar la inteligencia artificial de manera innovadora antes de su lanzamiento al mercado.
Entre las y los especialistas, instituciones y organizaciones que siguen este debate hay voces tanto a favor como en contra.
Para la primera de estas posiciones esta regulación es necesaria. Muchos expertos consideran que esta ley es un paso clave para abordar los desafíos éticos y de seguridad relacionados con la inteligencia artificial, y proporciona directrices claras para el desarrollo y uso responsable de la IA.
En función de ello, se destaca el equilibrio entre Innovación y protección. La normativa encuentra un equilibrio delicado entre fomentar la innovación y proteger los derechos fundamentales y establece límites sin asfixiar la creatividad y la investigación.
Por último, se destaca, un nuevo modelo de gobernanza con la conformación de un panel asesor multidisciplinario. Es decir, la creación de un panel de científicos y organizaciones de la sociedad civil para asesorar sobre la implementación de la IA, es vista como una medida positiva. Esto garantiza una visión amplia y experta.
Quienes desaprueban esta ley enfatizan sobre la complejidad y desafíos de su implementación: Algunos expertos advierten sobre lo poco práctico de aplicar la ley, ya que entienden que la implementación efectiva requerirá colaboración entre gobiernos, empresas y la sociedad civil.
Por otro lado, apuntan a que se abre un campo de restricciones para la innovación. Hay preocupaciones de que la regulación pueda limitar la innovación, la creatividad y la competitividad en el campo de la IA en la Unión Europea.
Sin embargo, debo destacar que la Unión Europea nuevamente marca el rumbo del debate mundial como es en el uso y aplicación de la inteligencia artificial, y que ya lo había hecho con el dictado del Reglamento General de Protección de Datos Personales (RGPDP), en 2016 y su entrada en vigor, en mayo 2018.
El camino para arribar a la decisión que tomó la Eurocámara comenzó con el Libro Blanco de la IA, en 2020, donde se formuló un modelo de gestión de riesgos. Posteriormente, en abril de 2021, cuando la Comisión Europea propuso el primer marco regulador de la UE para la IA. Esta propuesta establecía pautas para evaluar y clasificar los sistemas de IA según el riesgo que representan para los usuarios.
Ahora, para la implementación de esta norma, la ley también debe ser adoptada formalmente por el Consejo de Europa.
El acuerdo provisional establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor, por lo tanto, se espera que eso se produzca en 2026.
Los objetivos trazados fueron que la UE regule la IA para garantizar un desarrollo y uso responsable de esta tecnología.
La hoja de ruta hacia esta ley ha sido un proceso de deliberación para equilibrar la innovación con la protección de los derechos fundamentales y la seguridad.
Debemos considerar que la IA es un campo en constante evolución, con desafíos y oportunidades emergentes. Un debate duradero permite adaptar la regulación a medida que se desarrollan nuevas tecnologías y se descubren riesgos adicionales.
El análisis continuo permite reflexionar sobre los impactos sociales, éticos y económicos de la IA, asegurando que las decisiones sean informadas y equilibradas.
La reflexión incesante admite recopilar retroalimentación de diversos actores, como expertos, empresas, ciudadanos y organizaciones. Esta información es crucial para ajustar y mejorar la ley con el tiempo y garantizar diversas perspectivas y puntos de vistas.
Bajo este contexto, Latinoamérica debe liderar la agenda regional en la materia, sin desatender las propias vulnerabilidades sociales y económicas que hoy presenta la Región, pero advirtiendo que IA modela la humanidad, lo que posiciona a la temática de gran trascendencia.
La UE puede aprender de experiencias y desafíos en otros lugares del mundo, adaptando su enfoque según las lecciones aprendidas.
La flexibilidad es esencial para garantizar que la regulación no se vuelva obsoleta o rígida, más si su objeto se encuentra en constante evolución como son las nuevas tecnologías.
La constancia en sostener en los últimos años este tema dentro de la agenda, ha sido una fortaleza clave en el proceso de regulación de la IA en la UE, lo que permite una permanente adaptación y una toma de decisión informada para abordar los desafíos y maximizar los beneficios de esta tecnología que se encuentra en continuo movimiento y expansión.
*El autor es Ministro Suprema Corte de Justicia de Mendoza. Co-founder JUSLAB