La ley europea para la IA quiere prohibir el uso del reconocimiento facial en espacios públicos

Anuncios

(FOLHAPRESS) – La semana pasada, el Parlamento Europeo aprobó la primera versión de la ley que regula el uso de la IA (Inteligencia Artificial) en la Unión Europea. La legislación es pionera en la gobernanza de esta tecnología, cuyo potencial deleita tanto como asusta a expertos y usuarios, y debería servir de modelo para otras leyes que se debaten en todo el mundo.

“El objetivo del reglamento es establecer una relación de confianza entre los usuarios con esta tecnología, reduciendo sus riesgos”, explica al informe el eurodiputado italiano Brando Benifei, de 27 años, ponente de la nueva ley europea. “Queremos combatir esta ansiedad generada por la IA”.

Benifei, que es miembro de la Comisión de Mercado Interior y Protección del Consumidor del Parlamento Europeo y trabaja con la Comisión Especial de Inteligencia Artificial en la Era Digital, se refiere a los miedos, riesgos y desconfianza que rodean al desarrollo de esta tecnología.

Esta zozobra tomó tales proporciones que, el pasado mes de marzo, cientos de especialistas firmaron una carta pública pidiendo la suspensión de la investigación con IA durante seis meses, a fin de permitir el establecimiento de sistemas de regulación y seguridad para una tecnología que aporta, según la documento, «grandes riesgos para la humanidad».

Entre los firmantes se encuentran Elon Musk, propietario de Twitter y fundador de SpaceX y Tesla, y Steve Wozniak, cofundador de Apple, así como miembros del laboratorio de IA de Google, entre otros.

“Tenemos que ser francos: existen riesgos sistémicos para la IA a nivel mundial. Pero sabemos que también existen riesgos cotidianos para las personas, y nos centramos en ellos”, justifica el eurodiputado italiano.

«Queremos asegurarnos de que cualquier sistema de IA que ingrese al mercado europeo sea tratado para reducir el riesgo para que las personas puedan sentirse más seguras. Ese es nuestro enfoque. En humanos y basado en parámetros de confianza».

El texto aprobado por el Parlamento Europeo fue propuesto por una coalición de socialdemócratas, cristianos de centroderecha, ecologistas y liberales, y obtuvo una expresiva aprobación de 499 votos a favor, 28 en contra y 93 abstenciones.

Clasifica los diferentes usos de la IA en grados de riesgo: bajo, medio, alto e inaceptable.

“Identificamos aplicaciones de riesgo extremo, inaceptable, que fueron prohibidas porque implican riesgos que no queremos correr y vulneración de derechos fundamentales”, dice Benifei, quien está en su segundo mandato y entró en la lista de la revista Forbes en 2016 como una de las 30 personas con menos de 30 años que más se destacó.

Entre estas aplicaciones se encuentra el uso de IA para el reconocimiento de emociones en escuelas y espacios de trabajo, así como por parte de las autoridades de control fronterizo y justicia penal.

También está prohibido el uso de la IA para la llamada vigilancia predictiva, destinada a la prevención del delito, para la clasificación social y, en el punto más sensible del debate de los miembros del Parlamento Europeo, para la identificación biométrica en espacios públicos.

Es un campo en el que el uso de la IA se considera extremadamente problemático porque vulnera el derecho a la privacidad de los datos de quienes son filmados y también porque ya se han identificado algoritmos con potenciales problemas de sesgo racial. Además, el uso del reconocimiento facial de IA en espacios públicos se ha relacionado con regímenes autocráticos en China y Rusia, que ya han utilizado la tecnología para identificar a personas en protestas antigubernamentales, lo que viola los derechos humanos.

Objeto de un intenso debate durante los dos años que los eurodiputados estuvieron involucrados en el tema, se mantuvo la prohibición del uso de la IA para la identificación biométrica en espacios públicos con fines de vigilancia, pero con excepciones vinculadas a la ocurrencia de delitos graves, la desaparición de niños y actos de terrorismo.

Las áreas consideradas de alto riesgo incluyen los sistemas de inteligencia artificial utilizados para influir en los votos y el resultado de las elecciones, así como los sistemas de recomendación utilizados por las grandes redes sociales.

“Es necesario mirar los riesgos de los algoritmos discriminatorios y los datos que se utilizan para entrenar estos sistemas y que las grandes plataformas online hagan recomendaciones”, defiende Benifei. “Estoy seguro de que este será un tema de futuras negociaciones con los gobiernos que buscarán la mejor formulación posible”.

Según él, todas las áreas consideradas de alto riesgo contarán con sistemas de certificación de IA en relación con «la calidad de los datos, la supervisión humana y los protocolos de reducción de riesgos para la salud, la seguridad y los derechos fundamentales de los usuarios». Y esto incluye los llamados modelos fundacionales, que sirven como base para los sistemas de IA y que deberán registrarse en la base de datos de la UE antes de su lanzamiento al mercado europeo.

La legislación también crea reglas de transparencia para los llamados sistemas de IA generativa, como ChatGPT, que deberán revelar que el contenido fue generado por IA, lo que ayuda a distinguir entre imágenes reales y falsificaciones profundas.

También deberán proporcionar resúmenes protegidos por derechos de autor de los datos utilizados en la capacitación de IA y garantizar las salvaguardas contra la generación de contenido ilegal.

“Creamos reglas para la transparencia de la IA generativa, lo que implica mucha responsabilidad para los desarrolladores. Necesitamos transparencia sobre el contenido producido por IA. Debe quedar claro para las personas cuándo el contenido fue producido por IA y no por humanos”, señala Benifei.

El mes pasado, el director ejecutivo de OpenAI, la startup responsable de ChatGPT, declaró que la empresa abandonaría la UE si la legislación de IA fuera demasiado restrictiva.

«Este es un tipo de discurso extraño. Y debemos continuar con nuestro trabajo, que incluye promover el diálogo entre diferentes instituciones a nivel mundial, como la OCDE, la ONU y el G7. Después de todo, no estamos creando una regulación solo por nosotros mismos», dice Benifei.

Según el eurodiputado ponente de la ley de IA, muchas empresas vinculadas a esta tecnología lo buscaron para presentar su perspectiva sobre la regulación del sector.

«Los hemos escuchado a todos. Es importante que escuchemos las preocupaciones no solo de las organizaciones de la sociedad civil y los consumidores, sino también de quienes hacen negocios con AI. AI».

Ante una tecnología en un proceso acelerado de desarrollo y generación de nuevos usos y productos, los ponentes de la ley europea de IA crearon una estrategia para que el texto no quedara obsoleto en poco tiempo.

“Nos fijamos en los usos y áreas de aplicación, y no en la tecnología en sí”, dice el eurodiputado italiano. «También hay un grado de flexibilidad legislativa para las modificaciones del texto, que pueden hacerse por decreto de los delegados de la Comisión Europea, sin necesidad de reabrir las negociaciones sobre la ley en su totalidad».

Una vez aprobada la primera versión del texto, comienzan las negociaciones directas con los 27 países del bloque. El objetivo es llegar a un texto consensuado que se apruebe a principios de 2024 para su implementación en 2026.

Un plazo tan largo para un tema que parece tan urgente inquieta a los miembros del parlamento. “Lleva tiempo implantar este tipo de legislación porque tiene que haber un periodo de transición para construir todas las infraestructuras necesarias, pero pensamos que habrá que acelerarlo”, admite Benifei. «Estamos estudiando la posibilidad de anticipar los efectos de la ley, ya sea a través de un marco provisional, o mediante aplicación voluntaria por parte de las empresas».

La gran dificultad de la legislación pionera en regular el uso de la IA, evalúa Benifei, es precisamente su aplicación. «El desafío es tener autoridades en los Estados miembros que supervisen el sector en relación con el fraude y otras infracciones, mientras que necesitamos coordinación a nivel de la UE para las investigaciones de fraude importante. Estos dos organismos tienen que trabajar juntos para encontrar estrategias formas comunes de abordar estos problemas en toda Europa».

Lea también: ¿Hasta dónde puede llegar ChatGPT? Limitaciones de la IA que debe conocer

Anuncios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies