NEXUS (Las Redes de Información)
Yuval Noah Harari, escritor y autor de
obras como Sapiens y 21
lecciones para el siglo XXI, tiene el don de enlazar conceptos
dispares de forma brillante y contarlo de manera simple.
Nexus es la historia de las redes de información que el humano ha tejido, desde la Edad de Piedra hasta la Inteligencia Artificial (IA). Para Harari, la información puede ser vista de dos formas, ambas erróneas:
- Idea
ingenua de la información. Supone que tener información nos
permite alcanzar la verdad y, con ello, la sabiduría y el poder. Según
esto, la mayoría de los problemas se resolverían recabando más datos. Por
supuesto, puede haber errores (fallos científicos o desinformación
intencionada, por ejemplo), pero esta idea supone que esos errores se
resuelven con más datos. Harari denuncia que a pesar de la ingente
cantidad de información científica que tenemos, «seguimos arrojando a la
atmósfera gases de efecto invernadero, contaminamos ríos y mares, talamos
bosques, destruimos hábitats enteros, condenamos a innumerables especies a
la extinción y ponemos en peligro los cimientos ecológicos de nuestra
especie». Es decir, tener suficiente información no ha resuelto el
problema. No tiene que haber relación entre información y verdad. Por
ejemplo, la música o el ADN no representan la realidad. Por eso, es ingenua la
idea de que tener más información es siempre mejor.
- Idea
populista de la información. Esta visión considera que la
información es un arma (para conseguir poder, por ejemplo). Hay populistas
de izquierda y de derecha; y ambos desprecian la ciencia, porque intentan
encontrar una verdad razonable y universal. La ciencia no es una búsqueda
personal, sino un trabajo colaborativo que requiere consenso y validación.
Además, a veces se ensalza una religión como si ella tuviera una verdad
absoluta. De esta forma, los líderes se presentan como mensajeros de Dios,
aunque su vida, sus palabras y sus obras se contradigan sistemáticamente
(Donald Trump es uno de los mejores ejemplos).
La herramienta más revolucionaria creada por el ser humano,
la IA, «puede destruir nuestra civilización». La IA «es la primera tecnología de la historia que puede tomar decisiones
y generar nuevas ideas por sí misma»; puede sustituir a los humanos y
dirigir el futuro hacia escenarios que no querríamos elegir. Por eso, Harari se
pregunta si podemos confiar en los algoritmos informáticos para tomar
decisiones sensatas y construir un mundo mejor. La IA es un complejo algoritmo
ejecutado en un buen ordenador con millones de datos. En definitiva, «la
información no es la materia prima de la verdad, pero tampoco es una simple
arma».
Relatos ficticios que crean una realidad
Lo importante de la información es su capacidad de conectar. No importa si la información es cierta o falsa. La Alemania nazi, la URSS o la Biblia tienen clamorosos errores científicos y, sin embargo, movilizaron a millones de humanos. Y tampoco importa la realidad. Por ejemplo, para muchos cristianos es blasfemia que se cuestionen algunos de los relatos que se han contado sobre Jesús, aunque haya argumentos muy interesantes para hacerlo.
Harari llama
a eso creer en un «relato», lo cual consigue que los humanos colaboren entre
ellos sin conocerse (cosa que no hacían los neardentales). Esto tiene
aplicaciones prácticas. Las grandes
empresas han entendido bien la forma de funcionar de los humanos.
Así, crean «marcas» que cuentan relatos sin importar la relación con lo que
venden. Harari pone el ejemplo de Coca-Cola. Sus anuncios no venden una bebida
azucarada que provoca múltiples enfermedades (diabetes, obesidad,
problemas dentales), además de ingentes daños ambientales (plásticos,
transportes). Venden diversión, felicidad y juventud, aunque sea falso.
Ocultar la verdad les funciona.
Otro ejemplo: como israelita, Harari conoce bien la
tradición judía. Cuenta que en la Pascua judía (la Hagadá) se obliga a que
millones de judíos finjan recordar que salieron de Egipto y que vivieron cosas
que no vivieron ellos o que «con toda probabilidad nunca ocurrieron». Este rito
les permite creer que al ser judíos «pertenecen a la misma familia». Tal vez,
por eso, muchos judíos no se atreven a criticar al gobierno de Israel, aunque
esté cometiendo un genocidio contra
sus vecinos palestinos.
La realidad puede ser objetiva (lo físico, por ejemplo) o subjetiva (los sentimientos: dolor, placer). Pero además, están las cosas intersubjetivas, las cuales «existen en el intercambio de información» (leyes, dioses, dinero, naciones). Si no se habla de esas cosas, si no construimos relatos y creemos en ellos, esas cosas dejan de existir o de tener valor. Una nación, afirma, existe solo en la imaginación colectiva, pero eso es incómodo. Es más sencillo creer que un pueblo es el «elegido por Dios».
Harari dice que ningún político en Israel cuenta el «sufrimiento infligido a
los civiles palestinos por la ocupación israelí». En cambio, apelar al pasado
glorioso del pueblo judío hace que sea más fácil conseguir el poder. Es decir,
si la verdad es incómoda, los relatos intentan taparla y, en ocasiones, la
gente lo aplaude. Algo similar ha ocurrido con la teoría de la evolución
de Darwin. Molestos con ella, gobiernos e iglesias han preferido censurarla
por miedo a que, de ser verdad, estarían en peligro su poder o el orden.
El poder de los
relatos es tan inmenso que ensombrece el que pueda tener la tecnología; y Harari tiene claro que
ese poder «no tiene que hacer del mundo un lugar mejor». «La memoria humana a
largo plazo está particularmente adaptada a la retención de relatos», además de
que se comunican con facilidad. Esta es la ventaja de usar esta técnica (y no
otro tipo de datos).
El problema de los relatos es que pueden estar equivocados. ¿Cómo podemos buscar relatos sin errores? Las religiones creen haber encontrado la respuesta: aseguran que sus libros sagrados tienen un origen sobrehumano —divino— y por tanto, están libres de errores. En consecuencia, los humanos no deberían ni modificarlos ni cuestionarlos. Esas teorías pueden parecer bonitas hasta que se intentan demostrar.
Por ejemplo,
hay bastantes datos históricos que demuestran que los libros sagrados del
judaísmo y del cristianismo han sido escritos por humanos y seleccionados por humanos
para llegar a la categoría de sagrados, por delante de otros textos con más o
similares méritos. Además, las religiones chocan constantemente con la
interpretación de los textos sagrados, llegando incluso a mantener
contradicciones evidentes. El papa Benedicto
XII era abiertamente partidario de quemar a los herejes, aunque
nunca negó que Jesús hubiera dicho que amáramos a nuestros enemigos.
Para Harari, la caza
de brujas es un «ejemplo extraordinario de un problema creado por
la información que empeoró debido a que se acumuló más información». Por
supuesto, se trató de información errónea, inventada, manipulada, pero que
nadie pudo frenar a tiempo y que los libros ayudaron a divulgar.
Por fortuna, el ser humano también puede crear instituciones que busquen la verdad con honestidad. Un buen ejemplo son las asociaciones científicas que, para Harari, son las auténticas creadoras de la revolución científica, y no gracias a la invención de la imprenta, sino por contar con mecanismos de autocorrección. En ciencia, se pueden cometer errores, pero siempre se está abierto a corregir y a cambiar lo que haga falta. De ahí que suele tener más prestigio quien propone cambios más radicales o encuentra fallos más graves. En cambio, en las religiones suele acaparar más poder el que muestra mayor resistencia a nuevas ideas.
Por eso, ideas como el feminismo están
abriéndose paso muy lentamente en algunas religiones. Por su parte, el
ecologismo ha sido abiertamente abrazado por el papa Francisco (ver su encíclica
Laudato Si), pero el sentimiento ecologista no ha calado ni en la
jerarquía ni en los fieles, los cuales siguen viajando en avión, abusando del
consumo de carne o despilfarrando plásticos de usar y tirar, por citar tres
ejemplos innegables.
¿Orden o verdad? ¿Dictadura o democracia?
¿Por qué a veces se prefiere la mentira o no reconocer la
ignorancia? Para Harari, ello está relacionado con el mantenimiento del orden. Y advierte:
«Si sacrificar la verdad en pro del orden tiene un coste, también lo tiene
sacrificar el orden en pro de la verdad».
«Una dictadura es una red de información centralizada que carece de mecanismos de autocorrección sólidos. Una democracia, en cambio, es una red de información distribuida que cuenta con mecanismos de autocorrección sólidos» (aunque no sean perfectos). Estos mecanismos son tales como las elecciones convocadas regularmente, la libertad de prensa, o la separación de poderes (legislativo, ejecutivo y judicial).
Para Harari, «la
única opción que no debería ofrecerse en unas elecciones es la de esconder o
distorsionar la verdad» (lanzar bulos). Pone el ejemplo de que no se debe negar el cambio climático ni atacar a quienes
sostienen que es real. Ahora bien, si la mayoría lo prefiere, se pueden
tomar medidas para consumir combustibles fósiles sin tener en consideración
todas las consecuencias (ambientales, para las futuras generaciones,
etc.).
La democracia es
algo más que celebrar elecciones. De hecho, hay países que celebran
comicios y no son democracias (Rusia, Irán, Corea del Norte, Marruecos). Las
preguntas importantes para evaluar la calidad democrática son otras, como qué mecanismos impiden
que las elecciones se amañen, si hay libertad para criticar al
gobierno, si hay separación de poderes real, etc. Por otra parte, para
conseguir democracias (o totalitarismos) a gran escala, hacen falta las
tecnologías modernas (radio, televisión, prensa, Internet). Téngase presente
que la comunicación eficiente permite la concentración de información y de
poder.
Ordenadores que toman decisiones autónomas
La gran diferencia entre los ordenadores y los inventos
anteriores (la radio, la imprenta) es que los algoritmos pueden tomar sus propias decisiones. Y cada
decisión conlleva unas consecuencias. Hoy día, nos dice este autor, «no es
extraño que los ordenadores tomen un porcentaje cada vez mayor de las
decisiones económicas del mundo».
Los algoritmos de Facebook promocionaron en Myanmar mensajes de odio contra los rohinyás, por delante de publicaciones de paz. Eso influyó decisivamente en una oleada de violencia y limpieza étnica (2016). Esos algoritmos estaban pensados para conseguir que las personas usaran Facebook el mayor tiempo posible, para así aumentar las ganancias de la compañía. «La gente no elegía qué ver. Los algoritmos elegían por ellos».
Al igual que las
publicaciones de paz no fueron consideradas importantes en Myanmar, tampoco lo
son normalmente las publicaciones sobre temas medioambientales a nivel global.
Y por eso, la información ambiental está siendo arrinconada por las redes
sociales corporativas (FB, IG, X, etc.). De ahí que Blogsostenible esté publicando
menos en esas redes y ganando presencia en Mastodon.
Ante estos problemas, las compañías tecnológicas se lavan
las manos y transfieren la responsabilidad a
sus usuarios, a los votantes o a los políticos (lo mismo que hacen, por
ejemplo, las compañías
del plástico cuando se las culpa de la contaminación). Para Harari,
eso son argumentos «ingenuos o hipócritas», porque las compañías son capaces
de moldear los deseos de sus
usuarios; y de manipular a votantes y políticos (a través de
lobbys o publicidad, por ejemplo).
Pero además, la IA que emplean estas empresas puede analizar
millones de datos y comprender cómo manipular a las personas. Harari nos indica
que «podrían surgir religiones atractivas y poderosas cuyas escrituras las haya
compuesto una IA». Ya hay ordenadores que se ganan la confianza de algunos
humanos y les crea una sensación de «falsa intimidad». Los algoritmos podrían crear noticias falsas
perfectas y divulgarlas de forma óptima para manipular a millones de humanos.
Según Harari, «el dominio del lenguaje proporcionará a los ordenadores una influencia
inmensa en nuestras opiniones y en nuestra cosmovisión».
En esta nueva era de una «economía basada en datos», la información es tan importante como
el dinero y, por eso, Harari propone que «los gigantes tecnológicos deben tributar en los países de los que extraen
datos», porque «un sistema tributario que solo sabe gravar dinero pronto
quedará obsoleto». Las compañías consiguen datos y ganan dinero con ello. Es
justo que tributen por los recursos que obtienen de cada país.
Entre ordenadores, redes sociales, teléfonos inteligentes,
cámaras, algoritmos de IA y otros inventos, hay mecanismos para vigilar a los
humanos de forma que la privacidad
puede ser «completamente
aniquilada por primera vez en la historia». Y además, la realidad puede
ser muy distorsionada, porque «la información no es la verdad».
Es muy curioso constatar que los algoritmos de YouTube descubrieron
lo mismo que los de Facebook: «las
salvajadas hacen que la implicación aumente, mientras que la moderación no
suele hacerlo». De ahí, por ejemplo, que Jair Bolsonaro llegara al poder
en Brasil aupado por varios youtubers divulgadores de bulos.
Una circular interna de Facebook demostró que sabían que «los discursos de
odio, los discursos políticos divisorios y la desinformación publicada en
Facebook y en su familia de aplicaciones afectan a sociedades de todo el mundo»
y que «tienen una responsabilidad» en los hechos. Lo sabían, lo saben, y no
actúan porque reduciría sus beneficios o porque confían ingenuamente en que al
final se impondrá la verdad.
Los magnates de las redes sociales suelen escudarse en defender la libertad de expresión. La realidad es que, en general, es muy fácil distinguir entre lo que es una opinión de lo que son mentiras y odio. Harari sostiene que las redes deben hacer que contar la verdad sea un incentivo. Y para ello, deben «invertir más en la moderación del contenido» (supervisada por humanos).
Sin embargo, en el caso de Myanmar,
Facebook pagaba por los clics y reproducciones sin que la veracidad puntuara
positivamente. «En la década de 2010, los equipos de gestión de YouTube y
Facebook recibieron una avalancha de advertencias de sus empleados humanos, así
como de observadores externos, acerca del daño que estaban causando los
algoritmos, pero los propios algoritmos nunca dieron la voz de alarma».
La importancia de establecer bien el objetivo
«Un desajuste en los objetivos de un ordenador
superinteligente podría derivar en una catástrofe de una magnitud sin
precedentes» (entiéndase superinteligente más bien como superpotente). Es
decir, definir bien el objetivo es
tan importante como definir bien los algoritmos. Sin embargo, «por
definición no hay manera racional de definir este objetivo final» (de forma
clara, no ambigua, ética y con garantías de que no habrá efectos secundarios
indeseables). La llamada Regla de
Oro (no hacer a los demás lo que no quieras que te hagan a ti),
podría no ser útil en máquinas. Kant (en su Crítica de la
Razón Práctica) definió algo similar intentando encontrar reglas
intrínsecamente buenas.
«Mientras que los deontólogos se esfuerzan por encontrar reglas universales
intrínsecamente buenas, los utilitaristas juzgan
las acciones por el sufrimiento y la felicidad que causan». El problema es que
no hay forma de medir el sufrimiento (ni la felicidad). Además, algunos
utilitaristas podrían permitir un sufrimiento ahora, esperando un bien mayor en
el futuro.
La importancia de los datos de entrenamiento
Hoy día, los ordenadores también pueden establecer y
controlar entidades intersubjetivas (desde bichos en videojuegos hasta
criptomonedas). Ello puede tener ventajas e inconvenientes importantes. Igual
que en el caso de las brujas en Europa o de los kulaks en
Rusia, los ordenadores pueden
crear formas de clasificar a los humanos que otorguen o eliminen privilegios.
Ya ha pasado. Por ejemplo, cuando se han usado algoritmos para decidir a qué
persona contratar, los ordenadores se han mostrado tan sesgados como los
humanos, porque los datos con los que han aprendido lo que es bueno o malo no
son datos objetivos. Si hay racismo, machismo o especismo en los datos de entrada
de un sistema informático, es seguro que la salida seguirá ese mismo patrón.
«Desembarazarse de
los sesgos de los algoritmos puede ser tan difícil como librarnos de nuestros
prejuicios humanos». Los ordenadores podrían creer que han descubierto
una verdad sobre los humanos, cuando ello podría ser falso o propiciado
precisamente por los algoritmos. ¿Le gustan a los humanos las atrocidades y los
bulos? ¿O son los algoritmos de las redes sociales los que propician su
difusión? Incluso en el caso de que les gusten, ¿es bueno facilitar el acceso a
todo lo que nos gusta o es mejor mantener ciertas cosas (como las drogas) al
margen?
Para Harari, una solución sería «adiestrar a los ordenadores para que sean conscientes de su propia falibilidad, a dudar de sí mismos, a señalar lo que les
genera incertidumbre y a obedecer el principio de precaución. Esto no es
imposible». Este autor sugiere, además, que «debemos crear instituciones
capaces de controlar no solo las debilidades humanas ya conocidas, como son la
codicia o el odio, sino también errores completamente ajenos» y advierte: «La
tecnología no ofrece una solución a este problema».
Democracias amenazadas
Harari asegura que hay motivos para temer las nuevas
tecnologías. No solo por su poder, sino porque los humanos tardan un tiempo en
aprender a usar las cosas con sensatez o no lo aprenden. Pensemos que «la
Revolución Industrial socavó el equilibrio ecológico global, lo que causó una
oleada de extinciones. Puesto que parece que todavía somos incapaces de
construir una sociedad industrial ecológicamente sostenible, la cacareada
prosperidad de la generación humana actual supone costes terribles para otros
seres sintientes y para las futuras generaciones humanas».
Para no poner en peligro una democracia, Harari expone
cuatro principios básicos:
- Benevolencia. La
recopilación de información debe usarse para ayudar a los humanos, no para
manipularlos. Esto atañe tanto a bases de datos oficiales (datos médicos,
de impuestos, etc.) como privadas. Empresas como Google y TikTok ganan
millones explotando nuestra información. Muchos usuarios creen que sus
servicios son gratuitos, pero en realidad están pagando con sus datos y su
privacidad.
- Descentralización. Si
toda la información se centraliza, aumenta el riesgo de usos peligrosos.
Por eso, no se deben cruzar las bases de datos de la policía, con las de
hospitales o las de compañías de seguros.
- Mutualidad. Si
las empresas y los gobiernos democráticos aumentan la vigilancia de los
ciudadanos, también se debe tener mayor transparencia sobre los gobiernos y las empresas.
- Posibilitar
el cambio. Se deben evitar tanto las clasificaciones rígidas (del
tipo de las castas en la India) como las manipulaciones extremas (del
estilo de los lavados de cerebro de Stalin).
Hitler llegó al poder gracias al descontento general por una
crisis que subió las tasas de paro durante tres años. Y sabemos que el mercado laboral del futuro sufrirá grandes
cambios: robots, desempleo masivo, etc. Por esto, es
fundamental educar adecuadamente a los jóvenes, no solo en capacidades
técnicas, sino también en humanidades, en agroecología, en educación
ambiental y, en definitiva, en ser personas, no meros trabajadores.
Profesiones que hoy vemos imposibles de robotizarse podrían
serlo dentro de unos años (como el sacerdocio, por ejemplo). Los humanos
sabemos que los ordenadores no
pueden sentir dolor ni amor, pero las personas pueden llegar a tratarlos
como si fueran seres sintientes. Se sabe que cuando establecemos una relación
personal tendemos a asumir que el otro ente es consciente. «Así, mientras que científicos, legisladores y la
industria cárnica suelen solicitar cargas de prueba imposibles con el fin de
reconocer que vacas y cerdos son conscientes, por lo general los dueños de
mascotas dan por sentado que su perro o su gato es capaz de amar o sentir
dolor. La diferencia radica en que suelen tener una relación emocional con su
mascota, mientras que los accionistas de las empresas agrícolas no la tienen
con las vacas». En este sentido, recomendamos Hay
alguien en mi plato.
«Una democracia
tiene que cumplir dos condiciones: debe permitir un debate público
y libre sobre cuestiones clave y debe mantener un mínimo de orden social y de
confianza en las instituciones». Las redes sociales facilitan el debate, pero también permiten su
manipulación. Las redes que pertenecen a empresas (como la red X de Elon Musk)
permiten manipular que ciertos mensajes sean silenciados y que otros sean
viralizados. Por eso, cada vez son más los ciudadanos que rechazan las redes
corporativas y se pasan en masa a
redes del fediverso (libres, sin control empresarial, sin
publicidad, etc.).
Además, se sabe que en las redes «los
bots constituyen una minoría nada desdeñable». Es decir, multitud de
programas informáticos están lanzando y apoyando opiniones como si fueran
humanos; lo cual contribuye a la manipulación y a la polarización de la sociedad.
Los partidos políticos seguramente ya tienen su «ejército de bots capaces de
trabar amistad con millones de ciudadanos y de servirse de esta intimidad para
modificar su visión del mundo».
Los bots podrían crear lemas pegadizos, manifiestos
políticos convincentes, líderes carismáticos y vídeos falsos de personas reales
concretas. Harari propone prohibir esos vídeos, así como los bots, porque «la
IA puede hacerse pasar por un humano, amenazar con destruir la confianza entre
humanos y desgarrar el tejido de la sociedad». El filósofo Daniel Dennett sugiere que los
gobiernos tendrían que ilegalizar a los humanos falsos, por las mismas razones
que son delitos falsificar dinero y suplantar la identidad de otro humano. Un
robot puede ayudar a un médico, pero no debería permitirse que se haga pasar
por él.
Para Harari, en varios países del mundo los partidos conservadores están
atrayendo líderes radicales que, de hecho, no son conservadores. El ejemplo más
claro lo pone en Donald Trump el
cual, según cuenta, ha «secuestrado» al partido republicano, rechazando
cuestiones que nunca se han puesto en duda: los científicos, el sistema
electoral, los servidores públicos, etc. Una posible explicación está en la
polarización creada por poderosas corporaciones, que se amparan en la falta de
transparencia de sus algoritmos para apoyar ciertas ideologías. Harari
advierte: «cuando los ciudadanos pierden la capacidad de entablar una
conversación y se ven unos a otros como enemigos, en lugar de como meros
rivales políticos, la democracia se vuelve insostenible».
Derecho a una explicación
Hoy día, se
pueden usar algoritmos informáticos para multitud de procesos importantes:
conceder préstamos, diagnósticos médicos, sentencias judiciales, estrategias
financieras… Además, «en la IA, las redes neuronales que avanzan
hacia la autonomía son inexplicables». Por ello, se pide «consagrar un nuevo derecho humano, el derecho
a una explicación». Cuando un algoritmo (o humano) tome una decisión que
afecte a otro, este segundo tendrá derecho a exigir una explicación de la
decisión y a ponerla en duda frente a una autoridad humana. Tenemos derecho a
saber todo lo que se ha tenido en cuenta y qué peso se ha concedido a cada
cosa.
Es probable que las
decisiones de la IA sean más justas y tengan en cuenta más factores que las
decisiones humanas, pero también pueden estar impregnadas de los prejuicios
humanos o de tomar en consideración datos irrelevantes. Y además,
también pueden generar monopolios.
«En 2023, Google controlaba
el 91% del mercado global de búsquedas». Y como tiene a su disposición más
datos que nadie, puede (supuestamente) adiestrar y mejorar sus algoritmos mejor
que nadie.
Los dictadores también
podrían caer en el error de confiar demasiado en una IA. Dado que el software
puede cometer los mismos errores que los humanos, no sería raro encontrar que
sugieren, por ejemplo, acabar con los opositores (que podría incluir al propio
dictador).
Otros riesgos de la IA: división, desigualdad…
Las grandes amenazas de la humanidad no son solo las armas
físicas y biológicas. Tenemos un grave problema ambiental y multitud
de peligros con las llamadas nuevas
entidades. Y sin embargo, hay intereses en fomentar la división y la
polarización. Como se ha dicho, la IA podría emplearse para generar noticias
falsas virales con el objetivo de socavar la confianza general.
Todo esto demuestra que, como el cambio climático, «la IA también es un problema global»
que podría hacer que la humanidad volviera a una era imperial y de
colonización. Podrían crearse «imperios digitales en disputa», divididos «por
un nuevo Telón de Silicio». Esta rivalidad haría aún más difícil regular «el
poder explosivo de la IA».
El nuevo modelo de colonización podría no ser en exclusiva
mediante fuerza militar, sino mediante datos. Una potencia podría conseguir
información de multitud de otros países y, con ella, construir una IA valiosa.
Los países pobres podrían ser solo fuentes de datos, pero no recibirían ningún
beneficio, lo cual podría aumentar la desigualdad. Preocupados por esta
nueva colonización digital,
«muchos países han bloqueado lo que consideran aplicaciones nocivas», como
algunas redes sociales. Por ejemplo, TikTok está prohibido en la India y
también en todos los dispositivos relacionados con el gobierno estadounidense
(funcionarios, contratistas…). Hay
miedo a que potencias extranjeras consigan nuestros datos y a lo que puedan
hacer con ellos.
Otro ejemplo: «el activo más importante de la industria textil es la
información». Ya no son tan importantes las materias primas. Con buenos datos,
puede predecirse lo que va a estar a la moda y adelantarse a la
competencia. Y conforme los robots vayan siendo parte de la mano de obra
barata, millones de obreros perderán sus puestos de trabajo, principalmente en
países ya empobrecidos. De ahí la importancia de que, cuanto antes,
empiecen los robots y los ordenadores a pagar impuestos mensuales como
hace cualquier obrero.
La cooperación es la solución
«Mientras seamos capaces de conversar, podremos encontrar un
relato compartido que nos acerque». En la naturaleza, la cooperación es
tan importante o más que la competencia. Y a lo largo de la historia, lo que mejor ha hecho avanzar al ser humano
es la cooperación entre distintos pueblos.
Ciertos líderes populistas exaltan el patriotismo y rechazan la globalización (el autor pone de
ejemplo a Trump y a Marine Le Pen). Aquí, Harari resalta que eso es un error
indicando por una parte que el patriotismo no debe ir de xenofobia y,
por otra, que ser patriotas no excluye cooperar con los extranjeros por el bien
común. La pandemia de COVID-19 nos dejó importantes lecciones. Una de
ellas es la enorme fuerza de la
cooperación internacional.
Lo que decidamos hoy respecto a la incipiente tecnología de
la IA tendrá repercusiones en el futuro. Pensemos que los padres de la Iglesia,
como Atanasio, decidieron incluir en la Biblia el texto misógino de Timoteo y
no el de Tecla, más tolerante, lo cual ha tenido sin duda gran influencia en
los siglos posteriores.
«Debemos cuidarnos de adquirir una visión exageradamente
ingenua y optimista. Irónicamente, a veces más información puede derivar en más
cazas de brujas». Harari también nos advierte del error de irse al extremo
opuesto y nos insta a «construir instituciones con mecanismos de autocorrección
sólidos», dado que el error es algo siempre posible. Y concluye: «Si nos
esforzamos, podremos crear un mundo mejor».
https://blogsostenible.wordpress.com/2025/05/10/libro-nexus-de-harari-resumen/

No hay comentarios:
Publicar un comentario