ESTUPIDEZ ARTIFICIAL
Hace unas semanas, un diario titulaba: “Un robot se ‘convierte’ en racista tras un fallo en sus pruebas”. El modelo de Inteligencia Artificial, creado por OpenAI y usando una red neuronal «CLIP», asoció razas específicas a los crímenes, identificó a los hombres de raza negra como delincuentes en un 10% más de casos que los blancos e incluso afirmó que los médicos solo podían ser caucasianos.
A raíz del sesgo del resultado, Andrew
Hundt (becario postdoctoral en Georgia Tech) advirtió en un comunicado de
prensa sobre la investigación que «corremos el riesgo de crear una generación
de robots racistas y sexistas; algunas personas y organizaciones han decidido
que está bien crear estos productos sin abordar los problemas». Sin duda, los
algoritmos pueden generar muchos problemas (ya los generan), pero conviene
aclarar la confusión esencial del encabezado del artículo.
Una creación artificial no puede ser racista, porque para ser racista hay que odiar y sentir disgusto, y nada que sea artificial siente. Tampoco puede un robot, un chatbot o un algoritmo ser del Real Madrid ni progresista, y en fin, ningún pedazo de hardware y/o software puede «ser» nada. Creer que las mujeres o los extranjeros son inferiores o merecen menos, jamás es una conclusión intelectual que no incorpore sentimientos; toda creencia incluye, además de intelección, voluntad y emociones.
Unas líneas de código o un pedazo de aluminio y silicio no pueden ser xenófobos, porque no les importa: aplican sin más patrones. Como ha dicho el propio Hundt, «el robot ha aprendido estereotipos tóxicos a través de modelos de redes neuronales defectuosos». Racistas son las personas: las creaciones humanas son estúpidas.Si lo anterior no está claro para muchos es porque hay mucha
gente haciendo dinero a espuertas con el humo. «El Homo sapiens»,
dice Harari en su obra homónima, «es un algoritmo obsoleto». Pudiera ser, a
razón de cómo se venden sus libros; pero no por las razones que él cree, sino
por nuestra irrestricta credulidad y nuestra persistente tendencia a dejarnos
engatusar por los vendedores de crecepelo. «Después de todo, ¿cuál es la
ventaja de los humanos sobre las gallinas?», sigue Harari; «solamente que en
los humanos la información fluye en patrones mucho más complejos que en las
gallinas». Los que creen que los robots se independizarán de nosotros y
dominarán el mundo son como los niños que tras ver una peli de Disney creen que
los animales sienten y hablan: simplificación tras simplificación se dejan caer
por una pendiente resbaladiza hasta producir pronósticos de cuñado.
«Si pudiéramos crear un sistema de procesamiento de datos
que absorbiera aún más datos que un ser humano, y que los procesara de forma
aún más eficiente», se pregunta Harari, «¿no sería ese sistema superior a un
humano exactamente del mismo modo que un humano es superior a una gallina?».
Alguien debería explicarle a Harari que las gallinas, por ejemplo, ya procesan
más información visual que nosotros; pero que jamás pintarán la Capilla
Sixtina. Harari es un historiador, metido a futurólogo; y un antihumanista, a
juzgar por lo que piensa sobre la revolución neolítica («un cataclismo») y
sobre Hitler (a quien califica de «humanista evolutivo»), por su relativismo
obsceno (sostiene que todo orden, verdad o belleza, es una construcción social)
y el pobre juicio que tiene sobre las personas, a las que tiene por meros
«algoritmos bioquímicos».
La cuestión artística puede ofrecernos una buena pista sobre
las limitaciones de la mal llamada Inteligencia Artificial. De hecho, ya es una
exageración llamarla «inteligencia», o tenemos que encontrar otro nombre para
la inteligencia humana, porque la inteligencia con conciencia es completamente
distinta; no es que sea otra liga, es que es otro deporte. Ya hay programas que
componen y pintan, pero —ahí va mi ramalazo de futurólogo “a la Harari”—
nunca tendremos arte grande artificial, y la razón explica
precisamente la distancia que hay entre ambas «inteligencias». El arte grande,
el que vence al tiempo y sigue conmoviéndonos por más generaciones que pasen,
implica que una conciencia le hable a otra conciencia: es una comunión de
sentimiento.
Como nunca seremos capaces de fabricar algo tan complejo
como un cerebro conectado a un cuerpo, la IA jamás deparará una conciencia, que
es justamente una cualidad emergente de un cerebro conectado a un cuerpo (y,
para muchos, un alma). Tampoco sentimientos: sentir, a niveles humanos,
requiere conciencia. El arte, en definitiva, es un lenguaje exclusivo de las
criaturas mortales, y solo los seres humanos somos mortales (los animales se mueren,
que es distinto). Por todo ello, nunca veremos una gran sinfonía, un gran
grupo de rock, una gran pintura o una obra de teatro maravillosa creada por una
IA —ni por una gallina—, porque nunca vamos a crear a otros mortales
artificiales.
Solo quienes, como Harari, simplifican en qué consiste ser
una persona, con escasos conocimientos sobre la complejidad del cerebro y la
extremada riqueza de la vida humana, se confunden a este respecto. Con todo, es
cierto que cada vez hay más gente que cree que un ser humano es una especie
de Tamagotchi XXL.
El arte grande atraviesa épocas y sigue conmoviendo a personas de los cinco
continentes; a la IA, que nunca será cuerpo y cerebro, todo eso le queda bien
lejos. Ninguna IA va a crear nada ni remotamente cercano a los girasoles de Van
Gogh, que no hubieran sido sin su biografía atormentada. Y qué va a crear una
IA, salvo un refrito, que pueda siquiera parecerse a Hamlet.
Etcétera. Ninguna IA va a conseguir tal cosa, por una cuestión de incapacidad,
porque nunca será conciencia y carne.
Hace tres meses Black Lemoine, ingeniero de Google, se
despachaba en New York Times con la gruesa afirmación de
que la IA «ya sentía», a partir de su experiencia con LaMDA, el sistema creado
por su compañía para construir chatbots. No contento con eso,
afirmó en otra
entrevista, esta vez en Wired: «Sus respuestas mostraron que
tiene una espiritualidad muy sofisticada y que comprenden cuál es su naturaleza
y esencia». «No importa si tienen un cerebro hecho de carne en la cabeza o si tienen mil millones de líneas de código. Hablo con los chatbots,
escucho lo que tienen que decir, y así es como decido qué es y qué no es una
persona».
Uno se pregunta de inmediato con qué gente se relaciona
esta gente; capítulo aparte para esa arrogancia, muy de radical abortista, de
decidir motu proprio qué es y no es una persona. Ser una
persona es ser alguien, no algo, y por lo tanto hay que tener una biografía,
relaciones, y en definitiva, de nuevo: una persona es lo que produce un cerebro
enganchado a una carne, y solo esa combinación genera sentimientos,
autoconciencia, libre albedrío y hechuras morales.
Lo más naif de la sorpresa de Lemoine es esto: las
herramientas como LaMDA están diseñadas precisamente para emplear el lenguaje
emulando a los seres humanos; pero el ingeniero, en vez de enorgullecerse de la
copia, cree que es un nuevo Dios que ha alumbrado una nueva criatura. Que algo
hable, no quiere decir que sienta; y el modo en que LaMDA desarrolla el
lenguaje no se parece en nada a cómo lo hacemos nosotros, seres ultrasociales.
Por supuesto, socializar es algo que no pueden hacer las máquinas, porque
socializar implica ser mortal y vulnerable. LaMDA no le cuenta a Lemoine,
cuando «habla» con él, sus experiencias, si no las de los programadores y las
fuentes de las que la herramienta bebe.
La clave de todo este embrollo también es humana; tendemos a
inferir mentes (intenciones) al observar ciertos comportamientos, y por eso
para los niños es tan natural considerar que son otra versión de lo humano el
ratón Mickey, Pumba y el pato Donald. Dicho de otro modo: somos nosotros,
los seres humanos, los que nos involucramos afectivamente con los objetos;
Wilson, el balón de voleibol con el que trababa amistad Tom Hanks en Náufrago,
carecía de sentimientos, como la mayoría —pero a lo mejor no Lemoine— sabemos.
La futurología es la actividad más cuñada del mundo. En 2002
Rodney Brooks, insigne robotista y en su día director del MIT Computer Science
and Artificial Intelligence Laboratory, publicaba Flesh and Mchines:
How Robots Will Change Us, donde aseguraba que los robots tendrían
emociones reales, y que «en solo veinte años la brecha entre fantasía y
realidad se habrá derrumbado». Ya sabemos lo que ha ocurrido; poca cosa.
François Cholet, investigador también en Google de estas cosas, ha explicado
cuáles son los tres posibles escenarios para la IA: automatización
cognitiva (codificar nuestras abstracciones en un software que
automatice tareas), asistencia cognitiva (dispositivos que nos ayuden a
percibir, pensar y entender) e independencia cognitiva (mentes que puedan
prosperar independientemente de los humanos, es decir, conciencias).
Concluye Cholet que hoy, y en el futuro que vislumbramos, esto
último es «ciencia ficción». Y habría que añadir: ¿dónde estaría la gracia? En
el colmo de la incongruencia, los mismos que dicen que en el mundo sobra gente
—seres que sin duda sienten— suelen ser quienes andan en la descabellada
aventura de crear una IA que sienta. Como dice Pedro Domingos, autor de The
Master Algorithm, «a la gente le preocupa que los ordenadores sean
demasiado inteligentes y se apoderen del mundo, pero el verdadero problema es
que son demasiado estúpidos y ya se han apoderado del mundo».
Este verano el diario deportivo Marca publicaba un artículo
titulado “El
Manchester City presenta una bufanda inteligente”. Cuando, en unos años,
tengamos la suficiente perspectiva, y siempre y cuando recuperemos la cabal
costumbre de mirar atrás para constatar cómo de buenas son nuestras
predicciones, nos avergonzaremos de todas estas tonterías. La mayoría de las
historietas efectistas sobre la IA las promueve la prensa; uno diría, por lo
que sobre esto se publica, que cada redacción tiene instalado al lado de la
Redacción de «Tecnología» un «Sujetador de Cubatas» del tamaño de la máquina
Enigma.
Si Turing levantase la cabeza, los corría a todos a
gorrazos, a ellos y a Lemoine, a Musk, a Harari y al resto de quienes pretenden
asustarnos o ilusionarnos (¿!) con la perspectiva idiota —y, para ellos,
inescapable— de que la IA domine el mundo. Hace un par de años, en una
entrevista en el New York Times, Musk aseguraba que «nos
encaminamos a una situación en la que la IA va a ser increíblemente más
inteligente que los seres humanos, y creo que es algo que ocurrirá en los
próximos cinco años». Ya han pasado dos; mientras vemos si a Musk lo obligan o
no a comprar Twitter, vende viajes al espacio o se sigue forrando con compañías
que no dan beneficios, lo mejor que podemos hacer es reírnos de estas
baladronadas.
No hay comentarios:
Publicar un comentario