LA IA ES UN DESAFÍO
NO ES UNA ANULACIÓN
DE LA CREATIVIDAD HUMANA
El filósofo Daniel
Innerarity autor de Una teoría crítica de la inteligencia
artificial, investigador en la Universidad del País Vasco,
reflexiona sobre las oportunidades y los retos que representa esta tecnología
para la democracia y la adquisición y transmisión del conocimiento.
¿Existen nativos y no nativos digitales frente al uso de
la inteligencia artificial?
Yo creo que no hay nadie que sea nativo digital, del mismo modo que no hay nadie que hable una lengua desde el seno materno. Todos aprendemos. Lo que ocurre es que hay un tipo de destreza diferente, y una mayor facilidad –en un entorno ya digitalizado– entre la gente más joven que entre la gente mayor.
Pero yo defiendo que, si aceptamos la terminología de que hay nativos digitales y migrantes digitales, los que hemos llegado tarde a esto tenemos una cierta ventaja y es que sabemos de lo que nos hemos “librado”.
Es como alguien que haya conocido el trabajo físico duro previo a la industrialización, o antes de la aparición de las lavadoras: cada vez que pone una lavadora, sabe de lo que se está librando, algo que para su madre o su abuela –generalmente mujeres– supuso un trabajo realmente arduo.Creo que hay que pasar por ciertos procesos de aprendizaje
de los que luego las máquinas nos van a liberar.
¿Qué cree que pensarán los jóvenes de su afirmación que
“los datos que todos generamos y que alimentan la IA son un bien público”?
Deberían entender que, si la responsabilidad de nuestros
datos recae única y exclusivamente en las espaldas de las personas, va a haber
mucha gente, incluidos ellos mismos, que no van a ser capaces de soportar eso.
Cuando hablamos de consentimiento informado, no siempre está claro qué se está
consintiendo, no sabemos exactamente el uso que se va a hacer de ello. Muchas
veces no tenemos tiempo para consentir las cookies o cuando
firmamos un tipo de acuerdo en relación con estos datos. Por tanto, me parece
que la verdadera batalla consiste en generar auditores de confianza, agencias
que sean capaces de establecer una cierta mediación que no obligue a los
individuos a cargar con todo el peso en la gestión de nuestros datos.
Y además, hay otro aspecto especialmente interesante en este
tipo de tecnología de datos, que tiene que ver con el nivel de exposición que
yo individualmente considero tolerable: precisamente porque hay muchos datos
que se pueden deducir por individuos parecidos a mí, condiciona el tipo de
exposición de otras personas similares a mí, sin que ellas hayan dado su
consentimiento. Hay muchos datos relativos a la propia constitución biológica o
al nivel de vida a partir de los cuales se podrían deducir datos de otras
personas.
Nos va a ocurrir con el tema de los datos algo parecido a lo
que nos ocurrió con el cambio climático y con la cuestión ecológica. Esta
última se gestionó al principio como un bien monetizable. Tanto contaminas,
tanto pagas… e incentivos para que eso no se hiciera. El resultado ¿cuál es?
Malísimo. Hemos avanzado muy poco o insuficientemente. O hay acuerdos
colectivos, globales, agencias que medien entre los individuos y esas grandes
corporaciones, o no tendremos una verdadera soberanía sobre nuestros datos. No
existe una soberanía individual, sino más bien una colectiva.
A una mayoría, sobre todo entre los jóvenes, no le
importaría que algunos escaños de su parlamento fueran ocupados por una IA…
Seguramente porque los más jóvenes están más habituados a
vivir en un mundo desintermediado, sin mediaciones institucionales y de otros
tipos. Los que ya somos un poco mayores hemos vivido un mundo con partidos, con
iglesias, con sindicatos, con periódicos, es decir, con instituciones que
mediaban, que reducían la complejidad.
La gente más joven tiene más bien una concepción
individualista, en el sentido de que cree que no necesita, por ejemplo, a los
médicos. No son necesarios, porque miro en Google y ya sé. Yo simplemente voy
al médico para que me recete lo que yo ya sé que me conviene. Nos ha pasado en
el mundo de la docencia. Los profesores ya no podemos limitarnos a suministrar
información porque la información la da Google, con lo cual nuestra tarea se ha
visto condicionada en un sentido completamente distinto.
Pero la gente joven tiene esa relación más inmediata con el
conocimiento, con la salud, con las reivindicaciones políticas, con los
derechos laborales… Lo cual esconde también, no nos engañemos, un elemento de
desorientación, una posibilidad de manipulación distinta de aquella a la que
podíamos acostumbrarnos quienes vivíamos en un mundo con más mediaciones. Pero manipulación,
a fin de cuentas.
¿Cree que los jóvenes se involucrarían más en la
democracia si se produjese una mayor tecnologización de los procesos
participativos?
Seguramente esa idea les resulte más seductora, precisamente
porque –pienso concretamente en nuestro país– la existencia de un parlamento la
dan por sentada, mientras que para otra generación la existencia de un
parlamento democrático ha sido el resultado de una conquista (incluso lo hemos
visto invadido por golpistas). En cambio, para esa generación el parlamento más
bien parece una institución inútil, superflua y, a veces, su arquitectura
institucional da la apariencia de ser bastante débil.
¿Deberían aprobarse políticas públicas que protejan a
niños y adolescentes de los algoritmos publicitarios?
Sin duda. Y de hecho ya hay una batalla en este sentido. Lo
que ocurre es que me da la impresión de que hemos pasado de un momento social
en el que la solución a todos los problemas del mundo de la educación pasaba
por introducir tecnología en las aulas –dentro de esta histeria digital de la
que yo hablo en el libro– a otro en el que parece que la solución es sacar la
tecnología. Entonces, yo también creo que en esto debemos tener un poco de
calma y, sobre todo, no generar la idea en el subconsciente de las personas (y de
la gente joven) de que la tecnología es algo perverso en sí misma, algo
prohibido, con lo cual puede tener el encanto precisamente de lo prohibido. La
tecnología hay que aprender a usarla.
¿Cuáles son los principales retos a los que se enfrentan
los jóvenes respecto a la IA?
Fundamentalmente tener una visión equilibrada de lo que
significa la
inteligencia artificial. No dejarse seducir por la idea de que esto va a
ser más creativo de lo que es (que es creativo en un sentido bastante impropio
y bastante limitado) ni tampoco pensar que esta tecnología va a ser exactamente
lo contrario: algo que anulará nuestras capacidades creativas.
Hay una frase de Norbert Wiener, uno de los padres fundadores
de la inteligencia artificial, que yo repito mucho porque creo que es la clave
de la cuestión: “El futuro no van a ser seres humanos tumbados en una hamaca
servidos por robots esclavos, sino más bien una lucha cada vez más exigente por
afrontar los límites de nuestra inteligencia”.
Realmente, esta tecnología es un desafío a nuestra
inteligencia, a nuestra creatividad. No es una anulación de nuestra
creatividad, sino un desafío y algo que nos va a obligar, por ejemplo, a
reconocer que una muy buena parte de las cosas que hacemos son poco creativas,
y a configurar un ecosistema humanos-máquinas que nos permita poner el foco y
la dedicación en cosas que tienen más valor.
Esa transición no será fácil, pero quizá reducirá el peso de
tareas penosas, repetitivas, poco creativas y centrarnos (sobre todo ahora, que
los más afectados por esto no van a ser tanto los trabajos manuales sino los
trabajos de “cuello blanco” como los de periodistas, profesores, escritores,
etcétera) en hacer un esfuerzo por ser realmente creativos. Y no dejarse
seducir por la idea de que “esto nos va a resolver la vida” porque no. Nos va a
resolver ciertas partes penosas o repetitivas de la vida, pero no el núcleo
interesante de la misma.
No hay comentarios:
Publicar un comentario