9/5/22

Preservar la capacidad de decidir cómo queremos construir el mundo en el que vivir

 PRIVACIDAD ¿Tenemos algo que esconder?          

Un amigo me preguntaba si todo el escándalo del espionaje con Pegasus serviría para que por fin cambiemos de hábitos. De hecho, su secreta esperanza (que él no confesará nunca) era que dejáramos de usar la tecnología, o al menos, que el escándalo sirviera para desengancharnos de los móviles, o, rebajando expectativas, para que empezáramos a usar apps seguras. Por desgracia, no creo que vaya a ser así.

Cambiar hábitos siempre ha sido algo que nos ha costado mucho; si además hablamos de hábitos que configuran nuestra identidad, determinan nuestras vidas sociales e incluso han modificado nuestra forma de aproximarnos y entender el mundo, lo veo aún más difícil. En una conversación posterior, su hija constató mis sospechas “sí, ya todo el mundo sabe que le espían, pero les da igual”. Un argumento muy cercano al de “yo no tengo nada que esconder, no me importa que me espíen”.

Aquí no vamos a hablar de Pegasus, sino de por qué tenemos que pasar de concebir la privacidad como algo personal a entenderla como algo colectivo. “Hay que dejar de pensar la privacidad como una propiedad privada y empezar a pensarla como un derecho colectivo”, escuché decir una vez a Carissa Véliz y me pareció una síntesis acertadísima.

El contexto no ayuda a hacer ese salto de lo individual a lo colectivo. Estamos en un momento de retroceso a un individualismo exacerbado: la pandemia nos ha encerrado más en nosotros mismos, a ello se suman, creo, tres elementos que dificultan imaginar futuros deseables, colectivos y fomentan un individualismo inconsciente basado en el “sálvese quien pueda”. Estos tres elementos serían: la emergencia climática, la guerra de Ucrania y la incapacidad de la industria y el mundo cultural de generar productos no distópicos, una industria que apuesta por vender apocalipsis en lugar de asumir un papel responsable en el contexto actual y abogar por contribuir a pensar qué futuro queremos y necesitamos colectivamente; a imaginar qué tiempos son los que tenemos que inaugurar. La catástrofe alimenta esa búsqueda de la salida individual. Pero el contexto nos exige que pensemos en cómo pasamos de entender la privacidad como algo privado, propio, individual a hacerlo como algo colectivo. Y, a partir de ahí, actuar en consecuencia.

Compartir aprendizajes

Me daba apuro escribir este artículo porque no soy una experta, ni mucho menos, pero estoy convencida de que hay que perderle el miedo a la parte técnica de la tecnología, a la inteligencia artificial y su expertise a la hora de apuntar retos políticos y colectivos que tenemos que afrontar con urgencia. En ese sentido, lo que sigue no es una explicación desde el rigor científico, sino desde el intento pedagógico de compartir aprendizajes.

En un mundo dominado, recubierto, atravesado por procedimientos de inteligencia artificial, los datos son “el petróleo del siglo XX”. A partir del uso de diferentes datos y variables (miles de datos, millones de datos, miles de millones de datos en algunos casos), la máquina es entrenada y puede sacar conclusiones predictivas que va mejorando a través del “machine learning”, haciendo así el procedimiento más complejo. Esa “mejora de la predicción” se produce, en parte, porque los procedimientos algorítmicos crean perfiles. Esos datos que componen los “dataset” con los que se entrenan las máquinas, no son fruto de la generación espontánea, vienen de nuestros teléfonos, comunicaciones, visitas a páginas webs, usos de apps, geolocalizaciones, bletooths activados, interacciones en redes sociales, intercambios de mensajes, mails… cuando visitamos una web o usamos una app para contar cuántos kilómetros hemos hecho esta mañana, generamos muchísimos más datos de los que podemos imaginar.

Esos datos no son importantes para poder saber dónde estuvo Pepito Pérez, Fátima Hernández o Alex Equis: lo son porque, junto con los datos de miles de personas de su misma edad, género, clase, o ubicación geográfica (o mil otras variantes más), son oro para poder generar perfiles que permitan predecir el comportamiento de ese tipo de persona. Predecirlo y ofrecer las ofertas comerciales que más se adecuan a ti, predecirlo y generar productos tecnológicos que nos homogenizan mientras nos hacen sentirnos únicos, predecirlos y usar métodos para condicionar elecciones democráticas, predecirlos y determinar si tú podrás cruzar la frontera o no, porque tu perfil me dice que es probable que delincas, predecirlo y determinar que tú no pasas la fase de pre-selección de este trabajo porque lo dice un algoritmo.

No eres tan importante, yo tampoco, no se trata de saber de ti o de mí en concreto, se trata de que actúes, te prestes inconscientemente a ser usado como una mina de datos que luego entra en el mercadeo de venta a terceros por parte de las compañías que los recopilan. Se trata de que alimentes las montañas de dataset que les permitirán generar productos, apps, para hacernos consumir más mientras creemos que elegimos libremente, manipular elecciones mientras permitimos que alteren nuestra imagen del mundo y nos cercenan nuestra capacidad de tener criterio propio o incluso de equivocarnos, se trata de contribuir a la generación de procedimientos algorítmicos que no están regulados y que una y otra vez se ha demostrado que aplican sesgos racistas y machistas, mientras el establishment defiende su neutralidad y les da más credibilidad que a una persona demandante de asilo perseguida en su país de origen.

Así que entiendo que es complicado en un mundo cada vez más individualista pensar la privacidad como un elemento colectivo, pero curiosamente, en un contexto que nos aboca al individualismo, lo que más importa son nuestros datos como parte de una masa de datos ingente donde nuestras personas se pierden y solo importan nuestras individualidades como parte de un perfil de gente que comparte tus variables. Es decir, solo importamos como minas de datos en las que practicar extractivismo de la intimidad y los hábitos que tenemos.

Frente a eso, protejámonos, revisemos las cookies, intentemos incidir en las regulaciones sobre la AI, denunciemos los abusos, usemos tecnologías seguras y respetuosas con la privacidad, apostemos porque se financien tecnologías de proximidad, democráticas, no necesariamente comerciales, recuperemos un poco más las presencialidades; y, sobre todo, imaginemos futuros colectivos, dignos, donde la tecnología está al servicio del bien común y no de beneficios comerciales o de ocultos fines políticos. Y si no, al menos, entendamos que la privacidad es una responsabilidad colectiva, más allá de si tenemos o no algo que esconder. Pensando que tenemos algo muy valioso que preservar: la capacidad de decidir cómo queremos construir el mundo en el que vivir.

https://www.elsaltodiario.com/opinion/tecnologia-privacidad-tenemos-algo-esconder  

No hay comentarios: