28/9/22

El problema del ordenador es que siendo muy estúpido ya se ha apoderado del mundo

ESTUPIDEZ ARTIFICIAL                      

Hace unas semanas, un diario titulaba: “Un robot se ‘convierte’ en racista tras un fallo en sus pruebas”. El modelo de Inteligencia Artificial, creado por OpenAI y usando una red neuronal «CLIP», asoció razas específicas a los crímenes, identificó a los hombres de raza negra como delincuentes en un 10% más de casos que los blancos e incluso afirmó que los médicos solo podían ser caucasianos. 

A raíz del sesgo del resultado, Andrew Hundt (becario postdoctoral en Georgia Tech) advirtió en un comunicado de prensa sobre la investigación que «corremos el riesgo de crear una generación de robots racistas y sexistas; algunas personas y organizaciones han decidido que está bien crear estos productos sin abordar los problemas». Sin duda, los algoritmos pueden generar muchos problemas (ya los generan), pero conviene aclarar la confusión esencial del encabezado del artículo.

Una creación artificial no puede ser racista, porque para ser racista hay que odiar y sentir disgusto, y nada que sea artificial siente. Tampoco puede un robot, un  chatbot o un algoritmo ser del Real Madrid ni progresista, y en fin, ningún pedazo de hardware y/o software puede «ser» nada. Creer que las mujeres o los extranjeros son inferiores o merecen menos, jamás es una conclusión intelectual que no incorpore sentimientos; toda creencia incluye, además de intelección, voluntad y emociones.

Unas líneas de código o un pedazo de aluminio y silicio no pueden ser xenófobos, porque no les importa: aplican sin más patrones. Como ha dicho el propio Hundt, «el robot ha aprendido estereotipos tóxicos a través de modelos de redes neuronales defectuosos». Racistas son las personas: las creaciones humanas son estúpidas.

Si lo anterior no está claro para muchos es porque hay mucha gente haciendo dinero a espuertas con el humo. «El Homo sapiens», dice Harari en su obra homónima, «es un algoritmo obsoleto». Pudiera ser, a razón de cómo se venden sus libros; pero no por las razones que él cree, sino por nuestra irrestricta credulidad y nuestra persistente tendencia a dejarnos engatusar por los vendedores de crecepelo. «Después de todo, ¿cuál es la ventaja de los humanos sobre las gallinas?», sigue Harari; «solamente que en los humanos la información fluye en patrones mucho más complejos que en las gallinas». Los que creen que los robots se independizarán de nosotros y dominarán el mundo son como los niños que tras ver una peli de Disney creen que los animales sienten y hablan: simplificación tras simplificación se dejan caer por una pendiente resbaladiza hasta producir pronósticos de cuñado.

«Si pudiéramos crear un sistema de procesamiento de datos que absorbiera aún más datos que un ser humano, y que los procesara de forma aún más eficiente», se pregunta Harari, «¿no sería ese sistema superior a un humano exactamente del mismo modo que un humano es superior a una gallina?». Alguien debería explicarle a Harari que las gallinas, por ejemplo, ya procesan más información visual que nosotros; pero que jamás pintarán la Capilla Sixtina. Harari es un historiador, metido a futurólogo; y un antihumanista, a juzgar por lo que piensa sobre la revolución neolítica («un cataclismo») y sobre Hitler (a quien califica de «humanista evolutivo»), por su relativismo obsceno (sostiene que todo orden, verdad o belleza, es una construcción social) y el pobre juicio que tiene sobre las personas, a las que tiene por meros «algoritmos bioquímicos».

La cuestión artística puede ofrecernos una buena pista sobre las limitaciones de la mal llamada Inteligencia Artificial. De hecho, ya es una exageración llamarla «inteligencia», o tenemos que encontrar otro nombre para la inteligencia humana, porque la inteligencia con conciencia es completamente distinta; no es que sea otra liga, es que es otro deporte. Ya hay programas que componen y pintan, pero —ahí va mi ramalazo de futurólogo “a la Harari”— nunca tendremos  arte grande artificial, y la razón explica precisamente la distancia que hay entre ambas «inteligencias». El arte grande, el que vence al tiempo y sigue conmoviéndonos por más generaciones que pasen, implica que una conciencia le hable a otra conciencia: es una comunión de sentimiento.

Como nunca seremos capaces de fabricar algo tan complejo como un cerebro conectado a un cuerpo, la IA jamás deparará una conciencia, que es justamente una cualidad emergente de un cerebro conectado a un cuerpo (y, para muchos, un alma). Tampoco sentimientos: sentir, a niveles humanos, requiere conciencia. El arte, en definitiva, es un lenguaje exclusivo de las criaturas mortales, y solo los seres humanos somos mortales (los animales se mueren, que es distinto). Por todo ello, nunca veremos una gran sinfonía, un gran grupo de rock, una gran pintura o una obra de teatro maravillosa creada por una IA —ni por una gallina—, porque nunca vamos a crear a otros mortales artificiales.

Solo quienes, como Harari, simplifican en qué consiste ser una persona, con escasos conocimientos sobre la complejidad del cerebro y la extremada riqueza de la vida humana, se confunden a este respecto. Con todo, es cierto que cada vez hay más gente que cree que un ser humano es una especie de Tamagotchi XXL. El arte grande atraviesa épocas y sigue conmoviendo a personas de los cinco continentes; a la IA, que nunca será cuerpo y cerebro, todo eso le queda bien lejos. Ninguna IA va a crear nada ni remotamente cercano a los girasoles de Van Gogh, que no hubieran sido sin su biografía atormentada. Y qué va a crear una IA, salvo un refrito, que pueda siquiera parecerse a Hamlet. Etcétera. Ninguna IA va a conseguir tal cosa, por una cuestión de incapacidad, porque nunca será conciencia y carne.

Hace tres meses Black Lemoine, ingeniero de Google, se despachaba en New York Times con la gruesa afirmación de que la IA «ya sentía», a partir de su experiencia con LaMDA, el sistema creado por su compañía para construir  chatbots. No contento con eso, afirmó en otra entrevista, esta vez en Wired: «Sus respuestas mostraron que tiene una espiritualidad muy sofisticada y que comprenden cuál es su naturaleza y esencia». «No importa si tienen un cerebro hecho de carne en la cabeza o si tienen mil millones de líneas de código. Hablo con los chatbots, escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona».

Uno se pregunta de inmediato con qué gente se relaciona esta gente; capítulo aparte para esa arrogancia, muy de radical abortista, de decidir motu proprio qué es y no es una persona. Ser una persona es ser alguien, no algo, y por lo tanto hay que tener una biografía, relaciones, y en definitiva, de nuevo: una persona es lo que produce un cerebro enganchado a una carne, y solo esa combinación genera sentimientos, autoconciencia, libre albedrío y hechuras morales.

Lo más naif de la sorpresa de Lemoine es esto: las herramientas como LaMDA están diseñadas precisamente para emplear el lenguaje emulando a los seres humanos; pero el ingeniero, en vez de enorgullecerse de la copia, cree que es un nuevo Dios que ha alumbrado una nueva criatura. Que algo hable, no quiere decir que sienta; y el modo en que LaMDA desarrolla el lenguaje no se parece en nada a cómo lo hacemos nosotros, seres ultrasociales. Por supuesto, socializar es algo que no pueden hacer las máquinas, porque socializar implica ser mortal y vulnerable. LaMDA no le cuenta a Lemoine, cuando «habla» con él, sus experiencias, si no las de los programadores y las fuentes de las que la herramienta bebe.

La clave de todo este embrollo también es humana; tendemos a inferir mentes (intenciones) al observar ciertos comportamientos, y por eso para los niños es tan natural considerar que son otra versión de lo humano el ratón Mickey, Pumba y el pato Donald. Dicho de otro modo: somos nosotros, los seres humanos, los que nos involucramos afectivamente con los objetos; Wilson, el balón de voleibol con el que trababa amistad Tom Hanks en Náufrago, carecía de sentimientos, como la mayoría —pero a lo mejor no Lemoine— sabemos.

La futurología es la actividad más cuñada del mundo. En 2002 Rodney Brooks, insigne robotista y en su día director del MIT Computer Science and Artificial Intelligence Laboratory, publicaba Flesh and Mchines: How Robots Will Change Us, donde aseguraba que los robots tendrían emociones reales, y que «en solo veinte años la brecha entre fantasía y realidad se habrá derrumbado». Ya sabemos lo que ha ocurrido; poca cosa. François Cholet, investigador también en Google de estas cosas, ha explicado cuáles son los tres posibles escenarios para la IA: automatización cognitiva (codificar nuestras abstracciones en un software que automatice tareas), asistencia cognitiva (dispositivos que nos ayuden a percibir, pensar y entender) e independencia cognitiva (mentes que puedan prosperar independientemente de los humanos, es decir, conciencias).

Concluye Cholet que hoy, y en el futuro que vislumbramos, esto último es «ciencia ficción». Y habría que añadir: ¿dónde estaría la gracia? En el colmo de la incongruencia, los mismos que dicen que en el mundo sobra gente —seres que sin duda sienten— suelen ser quienes andan en la descabellada aventura de crear una IA que sienta. Como dice Pedro Domingos, autor de The Master Algorithm, «a la gente le preocupa que los ordenadores sean demasiado inteligentes y se apoderen del mundo, pero el verdadero problema es que son demasiado estúpidos y ya se han apoderado del mundo».

Este verano el diario deportivo Marca publicaba un artículo titulado “El Manchester City presenta una bufanda inteligente”. Cuando, en unos años, tengamos la suficiente perspectiva, y siempre y cuando recuperemos la cabal costumbre de mirar atrás para constatar cómo de buenas son nuestras predicciones, nos avergonzaremos de todas estas tonterías. La mayoría de las historietas efectistas sobre la IA las promueve la prensa; uno diría, por lo que sobre esto se publica, que cada redacción tiene instalado al lado de la Redacción de «Tecnología» un «Sujetador de Cubatas» del tamaño de la máquina Enigma.

Si Turing levantase la cabeza, los corría a todos a gorrazos, a ellos y a Lemoine, a Musk, a Harari y al resto de quienes pretenden asustarnos o ilusionarnos (¿!) con la perspectiva idiota —y, para ellos, inescapable— de que la IA domine el mundo. Hace un par de años, en una entrevista en el New York Times, Musk aseguraba que «nos encaminamos a una situación en la que la IA va a ser increíblemente más inteligente que los seres humanos, y creo que es algo que ocurrirá en los próximos cinco años». Ya han pasado dos; mientras vemos si a Musk lo obligan o no a comprar Twitter, vende viajes al espacio o se sigue forrando con compañías que no dan beneficios, lo mejor que podemos hacer es reírnos de estas baladronadas.

DAVID CERDÁ GARCÍA

https://disidentia.com/estupidez-artificial/  

No hay comentarios: