28/6/23

Lo que nos mantiene a salvo es la libertad, no las tecnologías de control y vigilancia

¿TECNOLOGÍAS DE VIGILANCIA PARA ESTAR SEGUROS? 

La Unión Europea tendrá este año, si no hay imprevistos de última hora, una ley para controlar el uso de los sistemas de inteligencia artificial (IA). La normativa será la primera de su clase en el mundo: nunca antes un bloque de países de tanto peso político y económico había puesto sobre el papel qué se puede hacer y qué no con estas tecnologías. 

El AI Act lleva años cocinándose en Bruselas, desde mucho antes de que ChatGPT entrase en escena. Pero las próximas semanas se antojan decisivas para saber cómo los estados miembros terminarán de moldear una legislación llamada, en teoría, a convertirse en referencia global. También para potencias como EE UU y China, mucho menos proclives a regular un sector, el tecnológico, dominado por un puñado de corporaciones. 

En mayo, dos de los comités que integran el Parlamento Europeo aprobaron varias enmiendas  al borrador de la ley  escrito por la Comisión Europea. Aunque con algunos matices, las correcciones al texto fueron muy bien recibidas desde las organizaciones en defensa de los derechos civiles. Los europarlamentarios proponen, entre otras cosas, prohibir los sistemas que usan datos biométricos (rasgos faciales, huellas dactilares, etc.) para identificar a una persona en el espacio público. También defienden un veto a las tecnologías para reconocer las emociones y a las herramientas policiales predictivas que tratan de adivinar dónde o quién cometerá el próximo delito. 

“Es una enorme victoria para nuestros derechos fundamentales”. Así recibió la propuesta del parlamento la European Digital Rights (EDRi), la mayor red de organizaciones por los derechos y libertades digitales del continente. Pero a la ley aún le queda un largo camino hasta entrar en vigor. Esta semana el parlamento confirmará su posición definitiva, que habrá de defender en los próximos meses en los diálogos a tres bandas junto a la Comisión y el Consejo Europeo, coincidiendo además con la presidencia española de esta última institución.

Antes de que esto ocurra repasamos con Sarah Chander, una de las voces con mayor peso en el activismo europeo en defensa de los derechos digitales y que ha seguido la evolución de la norma desde su gestación, las principales batallas que están por venir. Chander es también responsable de acción política de EDRi, la red que está detrás de Reclaim your face

¿Qué está en juego con esta ley? 
Esta legislación cubre muchas cuestiones y muchos sistemas de IA. Está en juego nuestra privacidad y cómo interactuamos como ciudadanos con el espacio público. También cómo evitamos las discriminaciones que estas tecnologías provocan. Gobiernos y grandes compañías usan la IA para tomar decisiones sobre nuestras vidas. Esta ley establecerá normas al respecto y determinará qué es aceptable y qué no.

¿Por qué desde EDRi y la sociedad civil se recibieron tan bien los cambios que plantea el Parlamento Europeo? 
Una de las grandes cuestiones en juego con esta ley, y que venimos advirtiendo desde el principio, es que no se trata sólo de regular los aspectos técnicos de la IA para tratar de mejorar los usos actuales de estas tecnologías, sino que hay que cuestionar la premisa de que ya se estén usando ciertos sistemas para ciertos usos. 

Y eso enlaza con el tema de la vigilancia en el espacio público. Por ejemplo, con el hecho de que se nos identifique cuando caminamos por un centro comercial. Pero también si la IA se puede usar para actividades policiales, en políticas migratorias o para otros sistemas de control.

¿Qué destacarías entre el conjunto de cambios propuestos?
Uno de los puntos cruciales de la ley es cómo regular el uso del reconocimiento facial por parte de la policía. Inicialmente, la Comisión dijo que no se podía usar para identificar a personas en espacios públicos, pero con grandes excepciones, por lo que permitían que la policía la usase en muchos casos. El Parlamento dijo que no, que el uso de estos sistemas por cualquier actor está prohibido en cualquier circunstancia, sin excepción. Esto supone un enorme impulso a los debates sobre privacidad, protección de la libertad de expresión y la no discriminación. 

Observamos un cambio significativo respecto a estos discursos, según los cuales necesitamos tecnologías de vigilancia para estar seguros. El Parlamento dijo lo contrario: en realidad, lo que nos mantiene a salvo es la libertad, no las tecnologías de control y vigilancia. 

¿Cuáles son los siguientes pasos, una vez el Europarlamento confirme su posición antes de los diálogos a tres bandas entre Comisión, Parlamento y Consejo? 
Si hay suerte, las negociaciones concluirán a finales de año y entonces tendremos un texto definitivo. Pero de aquí a entonces pueden cambiar muchas cosas. Habrá muchas batallas, sobre todo en el ámbito de los derechos humanos y en torno a lo que la policía puede hacer y lo que no. Suponiendo que tengamos el texto final al acabar el año, luego se tardará entre dos y cinco años en que la legislación se adopte y aplique plenamente. Pero una vez esté lista, eso ya manda un mensaje claro, especialmente respecto a las prohibiciones de ciertos sistemas.

Otra de las novedades son las obligaciones que han de seguir los creadores de los grandes modelos generativos de IA, como ChatGPT, antes de sacarlos al mercado.
El texto de la Comisión categoriza los sistemas de IA en función de su riesgo: inaceptable, alto, medio y bajo. La mayoría de la normativa está dirigida a las consideradas de alto riesgo. Los negociadores del Parlamento se dieron cuenta que quizás esas categorías no encajan para los sistemas de uso general, porque ese riesgo viene definido por el contexto y el fin para el que se usan. Los grandes modelos generativos de lenguaje pueden tener muchas funciones diferentes en el mercado. 

El Parlamento ha decidido separarlos y en el texto actual los llama modelos fundacionales. En lugar de regular a ChatGPT, lo que se miran son los datos de entrenamiento y el modelo sobre el que está construida la herramienta. Y les aplica algunos de los requisitos previstos para los sistemas de alto riesgo, sobre todo en relación a la transparencia. 

También tienen que mostrar su nivel de computación. Este es un paso muy interesante porque  las implicaciones  medioambientales y económicas de estos grandes sistemas a menudo no se discuten. Rara vez hablamos sobre la extracción y el consumo de recursos necesarios para construirlos. Las corporaciones tecnológicas no quieren tener estas conversaciones. Esta es la razón por la que Google despidió a Timnit Gebru.

Otra cuestión es la prohibición de los sistemas biométricos de vigilancia, que algunos países ya están usando o han legalizado. ¿Cómo se están posicionando en este asunto? 
Habrá una gran batalla en torno a esto en el Consejo Europeo, ya que los Estados miembros tienen diferentes posiciones. Podemos decir que hasta ahora no se quería una prohibición total, pero eso está cambiando con la presión pública y una mayor concienciación sobre lo que implica la vigilancia masiva. 

Algunos países como Alemania y Austria están a favor de prohibirlos o limitarlos ampliamente. Francia es un campo de batalla importante con los Juegos Olímpicos en el horizonte. La posición de España en este asunto todavía no está definida. 

Vemos diferentes tipos de discursos para justificar su uso: seguridad, terrorismo, la búsqueda de menores desparecidos y otros crímenes graves. Pero hay muy pocas pruebas que demuestren su utilidad. En el terrorismo existe la falacia de la frecuencia base, que dice que el número de sospechosos de terrorismo es tan bajo que, debido a la tasa de error de estos sistemas, nunca te ayudarán a encontrarlos. Es técnicamente imposible. 

Desde EDRI habéis advertido que los derechos de las personas migrantes, sin embargo, siguen sin estar protegidos con las últimas enmiendas. ¿Por qué? 
Para mí este es uno de los mayores defectos de la ley. Nosotras abogamos por que se prohíban los sistemas para predecir dónde habrá cruces de frontera y así enviar a las autoridades migratorias a esas áreas para impedir que ocurran. Esto es parte de un sistema más amplio de devoluciones ilegales. No puedes impedir que alguien entre en Europa cuando su intención es pedir asilo, eso es una violación de la legislación internacional. A esto le llamamos devoluciones digitales. Estamos hablando del contexto de la Europa Fortaleza. Y nos tememos que la tecnología apoye este proceso.

También defendemos prohibir los sistemas que usan datos personales y sensibles para decidir si hay riesgo de que un solicitante de asilo incurra en inmigración ilegal. Son sistemas discriminatorios. No puedes hacer suposiciones sobre algo que no controlas. Ante la IA, las personas en muchos contextos estamos indefensas porque no sabemos dónde se están usando. Es todo muy inmaterial así que es difícil plantar cara a estos sistemas. En migraciones esto es más acusado, porque ya existe un desequilibrio de poder cuando estás solicitando asilo u otro permiso migratorio. 

https://www.elsaltodiario.com/inteligencia-artificial/entrevista-sarah-chander-discurso-necesitamos-tecnologias-vigilancia-seguros-cambiando

No hay comentarios: