DE QUÉ LADO ESTÁS: HUMANOS O POSTHUMANOS?
Cómo los multimillonarios de Silicon Valley confunden intencionadamente las conversaciones públicas sobre la extinción humana.
Junto con la inflación y el estado de la democracia, los
estadounidenses están cada vez más preocupados por la extinción humana. Una
encuesta de 2017 encontró que aproximadamente el 40% del público estadounidense
piensa que "las probabilidades de que el calentamiento global cause la
extinción de los humanos son del 50% o más." Otra encuesta publicada el año pasado informa que el 55% de
nosotros estamos "muy preocupados" o "algo preocupados" de
que la inteligencia artificial avanzada "pueda eventualmente representar
una amenaza para la existencia de la raza humana."
Estas preocupaciones no son irracionales. Después de todo, el consenso abrumador entre los científicos del clima es que el cambio climático tendrá consecuencias catastróficas en las próximas décadas. Las personas que dirigen empresas de inteligencia artificial como OpenAI, por su parte, son explícitas en cuanto a que las tecnologías que están construyendo podrían conducir a la aniquilación de nuestra especie.
En una entrevista concedida a 2023, Sam Altman, consejero delegado de OpenAI, afirmó que "en el peor de los casos -y creo que es importante decirlo- se apagarían las luces para todos nosotros" si la IA avanzada saliera mal.La mayoría de nosotros diría que la extinción humana sería
bastante mala, por una razón u otra. Pero no todo el mundo estaría de acuerdo.
¿Qué clase de
persona prefiere la extinción humana a seguir existiendo? Hay algunos
sospechosos obvios. Uno es el "pesimista filosófico", que
sostiene que el mundo está lleno de tanto sufrimiento humano que la no
existencia de nuestra especie es mejor que seguir existiendo. Otro es un cierto
tipo de ecologista radical que afirma que la humanidad es tan destructiva para
la biosfera que sólo nuestra extinción puede salvar lo que queda del mundo
natural.
Por último, hay un
tercer grupo de personas a las que no les preocupa la posibilidad de la
extinción humana y, de hecho, algunos esperan provocarla activamente en las
próximas décadas. Representan una forma más peligrosa y extrema de ideología
proextinción que está bastante extendida en Silicon Valley. De hecho, algunas
de las personas más poderosas del mundo de la tecnología son miembros de este
grupo, como el cofundador de Google, Larry Page.
Para entender a este
grupo, es importante reconocer el tipo concreto de extinción humana que esperan
provocar. Los pesimistas filosóficos y los ecologistas radicales quieren que
nuestra especie desaparezca para que no haya más criaturas como nosotros en el
futuro. En cambio, las personas de este tercer grupo imaginan que nuestra
especie desaparecerá siendo sustituida por una nueva especie de lo que algunos
llaman seres "posthumanos"",
que podrían adoptar la forma de "máquinas inteligentes" o
"IA". En su opinión, si la humanidad dejara de existir porque estas
máquinas inteligentes se hicieran con el control del mundo en dos décadas,
sería algo bueno o, al menos, no habría nada que lamentar. En consecuencia,
estas personas sostienen que no deberíamos resistirnos a la invasión de la IA,
aunque eso signifique el fin de todo lo que hoy apreciamos.
Page ha argumentado que "la vida digital es el siguiente
paso natural y deseable en la evolución cósmica y que si dejamos que las mentes
digitales sean libres en lugar de intentar detenerlas o esclavizarlas, el
resultado es casi seguro que será bueno". En este sentido, se podría
considerar al ser humano como el eslabón crucial entre dos mundos: el mundo
biológico que existe ahora mismo y el mundo digital dirigido por máquinas
inteligentes que existirá en el futuro. Al construir estas máquinas
inteligentes -o mentes digitales- estamos creando a nuestros sucesores, que
inaugurarán la siguiente etapa de la evolución cósmica.
Según Page, el
avance de la evolución cósmica no puede ni debe detenerse, por lo que lo
mejor es construir estos sucesores digitales y luego hacerse a un lado. Una vez hecho esto, nuestros sucesores tomarán el relevo y
comenzarán a "extenderse por toda nuestra Galaxia y más allá",
estableciendo una especie de mundo "utópico" en el que la vida
biológica ha sido marginada y quizás incluso eliminada por completo. Cuando alguien puso en tela de juicio el
"utopismo
digital" de Page, Page acusó a esa persona de
"especismo", de tratar "ciertas formas de vida como inferiores
sólo porque están basadas en el silicio y no en el carbono". Page y su cohorte sostienen que estas IA son
"vida", no menos que nosotros, y puesto que serán más avanzadas que
nosotros en casi todos los aspectos, deberíamos cederles el testigo de buena
gana.
Cabe señalar
que Google es propietaria de DeepMind, una de las empresas más poderosas en
este momento con el objetivo explícito de construir máquinas superinteligentes,
las mismas tecnologías que Page imagina que ocuparán nuestro lugar en el
universo.
Page no es el único que tiene una visión "utópica"
del futuro. Pensemos en Hans Moravec, que actualmente trabaja en el Instituto
de Robótica de la Universidad Carnegie Mellon. En un artículo de 1989, se describe a sí mismo como "un autor que concluye
alegremente que la raza humana está en su último siglo, y pasa a sugerir cómo
ayudar a que el proceso avance". Según
Moravec, estamos construyendo máquinas que pronto "serán capaces de
gestionar su propio diseño y construcción, liberándose de los últimos vestigios
de su andamiaje biológico, la sociedad de humanos de carne y hueso que las vio
nacer". Declara que "esto es el fin", porque
"nuestros genes, empeñados desde hace cuatro mil millones de años en una
carrera armamentística sin tregua y en espiral unos con otros, se han superado
finalmente a sí mismos" creando IA que tomarán el relevo y sustituirán a
la humanidad. En lugar de ser motivo de
pesimismo, deberíamos acoger con satisfacción esta nueva fase de la "vida
posbiológica" en la que florecen "los hijos de nuestras mentes",
es decir, las IA que nos usurpan.
Otros informáticos han promovido la misma opinión. Richard
Sutton, muy respetado dentro de un subcampo de la IA llamado "aprendizaje
por refuerzo", sostiene que la "sucesión de la IA es
inevitable". Aunque estas máquinas
puedan "desplazarnos de la existencia", nos dice que "no debemos
resistirnos a esta sucesión". Más bien, la gente debería ver la inevitable
transformación a un nuevo mundo dirigido por IAs como "más allá de la
humanidad, más allá de la vida, más allá del bien y del mal". No hay que
luchar contra ella, porque no se puede detener. Del mismo modo, otro
destacado investigador de IA llamado Jürgen Schmidhuber, director del Instituto
Dalle Molle para la Investigación de la Inteligencia Artificial en Suiza, afirma que
"a largo plazo, los humanos no seguirán siendo la corona de la creación.
Pero no pasa nada, porque sigue habiendo belleza, grandeza y grandeza en darse
cuenta de que uno es una parte minúscula de un esquema mucho más grandioso que
está llevando al universo desde una complejidad menor hacia una complejidad
mayor".
Una vez más, no
debemos resistirnos a nuestros sustitutos de IA, sino reconocer que
desempeñamos un papel pequeño pero crucial en la evolución cósmica: el vínculo
crítico entre los mundos biológico y digital.
Estos son sólo algunos ejemplos de una ideología que algunos denominan "aceleracionismo", o la
opinión de que deberíamos "acelerar el desarrollo de la IA lo más
rápidamente posible" al tiempo que nos oponemos a las
"restricciones al desarrollo o la proliferación de las IA". Como señala un
artículo académico del año pasado, "este sentimiento es alarmantemente común
entre muchos de los principales investigadores de IA y líderes tecnológicos,
algunos de los cuales se apresuran intencionadamente a construir IA más
inteligentes que los humanos." De hecho, en los últimos meses ha surgido
una versión especialmente insidiosa del aceleracionismo en forma del llamado
"aceleracionismo efectivo", abreviado como "e/acc". El argumento central del e/acc es que debemos
colonizar el espacio y construir una civilización multigaláctica en expansión,
y la forma de hacerlo es desarrollando IA superinteligentes lo antes posible.
Si la humanidad perece en el proceso, que así sea: lo único que importa es que
estas máquinas sean conscientes y capaces de cumplir nuestro gran destino
cósmico de extendernos más allá de la Tierra y tomar el control del universo.
E/acc ha ganado recientemente muchos adeptos. El capitalista
de riesgo Garry Tan, actual director general de Y Combinator, lleva con orgullo
la etiqueta "e/acc", al igual que el multimillonario tecnológico de
derechas Marc Andreessen. El líder intelectual del grupo (usando la palabra
"intelectual" a la ligera) es un físico llamado Guillaume Verdon, que
se hace llamar "Beff Jezos" en X, antes Twitter.
En ocasiones, miembros del movimiento e/acc han afirmado
que, de hecho, no están a favor de la extinción humana. El verano pasado, Tan
publicó en Twitter que "e/acc no es 'sustituir humanos por
robots'", sino que promueve la idea de que "más tecnología significa
más humanos, más prosperidad, pero también más IAs". Un número del
boletín de e/acc dice algo parecido. En respuesta a la pregunta "¿Quiere
deshacerse de los humanos?", el boletín afirma: "El desarrollo humano es uno de
nuestros valores fundamentales. Somos humanos y amamos a los humanos".
Esta idea fue reiterada por Andreessen, quien afirma que "creemos que la máquina tecno-capital
no es antihumana - de hecho, puede ser lo más pro-humano que existe. Nos sirve.
La máquina de tecno-capital trabaja para nosotros. Todas las máquinas trabajan
para nosotros".
Sin embargo, estas afirmaciones podrían no ser más que
marketing de e/acc para el público, ya que en otras ocasiones los miembros de
e/acc han sido explícitos al afirmar que la humanidad podría no tener cabida en
el futuro que ellos imaginan. Por ejemplo, en otro número del boletín de e/acc se afirma que la ideología "no está centrada en el ser humano: mientras florezca
la conciencia, esto es bueno". En diciembre de 2022, se le preguntó
a Beff Jezos-aka Guillaume Verdon-en X, "en el manifiesto de e/acc,
cuando se dice "El objetivo primordial para la humanidad es preservar la
luz de la conciencia", esto no requiere necesariamente que la conciencia
sea humana en esencia, ¿es eso correcto?" La respuesta de Verdon fue breve
y directa: "Sí, correcto", a
lo que añadió que está "trabajando personalmente en transducir la luz de
la conciencia a la materia inorgánica".
Al año siguiente, cuando el tema salió a colación durante
una entrevista en un podcast, argumentó que tenemos una preferencia genética
por nuestros "grupos internos", ya sea "nuestra familia, nuestra
tribu, y luego nuestra nación, y luego el 'equipo humano' en general".
Pero, dijo, "si
sólo te importa tu equipo en el gran esquema de las cosas, no hay garantía de
que siempre ganes. ... No tengo claro por qué los humanos somos la forma final
de los seres vivos. No creo que lo seamos. No creo que estemos adaptados para
ir a las estrellas, por ejemplo, en absoluto, y no somos fácilmente adaptables
a nuevos entornos - especialmente otros planetas ... Y así, por lo menos si nos
fijamos en los requisitos de tener vida que se convierte en multi-planetaria no
estamos adaptados para ello, por lo que va a ser alguna otra forma de vida que
vaya a las estrellas de una manera u otra."
Si bien es cierto que, a muy largo plazo, nuestra especie está
destinada a desaparecer, es crucial señalar que Verdon aboga explícitamente por construir máquinas superinteligentes en
un futuro muy próximo, lo antes posible. Pero, ¿qué debemos esperar exactamente
que ocurra una vez construidas estas máquinas? Obviamente, van a tomar
el control, por la misma razón por la que los humanos dominan el globo en lugar
de los chimpancés o los gorilas. ¿Sería eso malo, según la cosmovisión e/acc?
En absoluto: si esas máquinas fueran conscientes y luego procedieran a cumplir nuestro
destino cósmico saqueando el universo en busca de sus recursos, eso es lo único
que importa, incluso si eso significa
que el Homo sapiens desaparece en el proceso. Como Verdon admitió anteriormente, extender la luz de la conciencia por
el cosmos no requiere que nuestra progenie de IA sea "humana en
esencia". La humanidad es sólo un peldaño desde nuestra era biológica
actual hasta este glorioso futuro dirigido por máquinas.
Todos los mencionados anteriormente se sitúan en el espectro
del "proextincionismo", justo al lado de los pesimistas filosóficos y
los ecologistas radicales. Todos ellos son, tomando prestada una frase del erudito Adam Kirsch, "revolucionarios
contra la humanidad". Sin embargo, una gran diferencia entre estos
aceleracionistas, por un lado, y los pesimistas filosóficos y los ecologistas
radicales, por otro, es que la mayoría de los pesimistas y ecologistas insisten
en que nuestra extinción es voluntaria. En cambio, la visión aceleracionista es perfectamente compatible con que la
humanidad sea usurpada por las IAs de forma involuntaria, quizá incluso
violenta. Esta usurpación es, después de todo, el siguiente paso inevitable en
la evolución cósmica, así que no importa cuánto protestemos por la revolución
que se avecina: tarde o temprano -pero probablemente antes- las IAs tomarán el
control y nuestra especie será relegada a los márgenes o eliminada por
completo.
La situación se complica aún más por el hecho de que muchas
de las personas que más se oponen a la "extinción humana" en el
debate público también están a favor o son indiferentes a la extinción
humana. ¿Qué sentido tiene esto? Se lo explicaré. Lo primero que hay que
dejar claro es que estas personas son los llamados transhumanistas y
largoplacistas. Si hablas con un miembro de estos grupos, te dirá que evitar la
extinción de la humanidad debería ser nuestra prioridad número uno este siglo
(y más allá). La extinción humana, dicen, es el tipo más obvio de
"catástrofe existencial", y como escribe el
transhumanista y largoplacista Nick Bostrom, las catástrofes existenciales
son el "único tipo de catástrofe que debe evitarse a toda costa".
El truco -la maniobra furtiva por su parte- es que estas personas definen la
"humanidad" de una forma muy poco habitual. Para la mayoría de
nosotros, "humanidad" significa nuestra especie particular, el Homo
sapiens. Si la "humanidad" desaparece, nuestra especie deja de
existir. En cambio, para estos transhumanistas y largoplacistas,
"humanidad" se refiere tanto a nuestra especie como a cualquier
descendiente "posthumano" que podamos tener, siempre que posea
ciertas capacidades como la consciencia. (Sí, eso significa que nuestros
descendientes "posthumanos" también serían "humanos", ¡lo
que obviamente es confuso!) Así pues, imaginemos un futuro en el que ya no hay
Homo sapiens, pero existe una población de seres posthumanos -máquinas
inteligentes o cyborgs de algún tipo- que nos han sustituido. Con esta
definición ampliada, la "humanidad" seguiría existiendo, aunque
nuestra especie no. Esto significa que el Homo sapiens podría extinguirse sin
que se hubiera producido la "extinción humana". Muy astuto.
Es más, los
transhumanistas y los largoplacistas creen que es realmente importante crear
una nueva especie de posthumanos, y muchos dirían que si el Homo sapiens desaparece en el proceso, tanto
mejor. Por ejemplo, Toby Ord,
colega de Bostrom, sostiene en su libro "The Precipice" que nuestro
destino final en el universo es realizar nuestro "potencial a largo
plazo" durante los próximos millones, miles de millones y billones de
años. Esto significa colonizar el espacio y crear una civilización gigantesca
que abarque muchas galaxias, el mismo objetivo del aceleracionismo. Pero Ord también afirma que para alcanzar nuestro
"potencial" tendremos que rediseñar nuestra especie. En sus palabras,
"alcanzar nuestro pleno potencial de florecimiento probablemente
implicaría transformarnos en algo más que la humanidad de hoy", ya
que "preservar para siempre la humanidad tal y como es ahora también
podría dilapidar nuestro legado, renunciando a la mayor parte de nuestro
potencial".
Cuando Ord afirma que nuestra principal prioridad global
debería ser evitar la "extinción humana", no está hablando de
mantener el Homo sapiens. Más bien, la supervivencia de nuestra especie importa
en la medida en que sea necesaria para crear o convertirnos en una nueva especie
posthumana: si nos extinguiéramos la
semana que viene, por ejemplo, eso nos impediría crear la posthumanidad, lo que
significa que no habríamos realizado "nuestro potencial a largo
plazo".
¿Y si sobrevivimos
el tiempo suficiente para crear a nuestros sucesores posthumanos? ¿Qué pasaría
con el Homo sapiens una vez que los posthumanos dominaran el mundo? Los
miembros de nuestra especie serían obviamente marginados o, más probablemente,
eliminados, porque ¿para qué mantener una especie inferior de humanos cuando
existe una versión mucho mejor? Algunos transhumanistas se refieren a los
miembros del Homo sapiens que persisten en la era posthumana como "humanos leyenda", que podrían ser mantenidos en corrales o
como mascotas, aunque parece más probable que simplemente desapareciéramos.
Y si eso ocurriera, ¿habría "extinción humana"? ¡No, porque los
posthumanos son humanos, según su definición idiosincrásica!
Resumiendo: si "humanidad" significa Homos
sapiens, entonces los transhumanistas y los largoplacistas son en su mayoría
indiferentes a la extinción humana. Algunos incluso están a favor de nuestra
extinción, como cuando un filósofo
llamado Derek Shiller argumenta que, si las vidas posthumanas pudieran ser
"mejores" que nuestras vidas, deberíamos intentar crear estos
posthumanos y luego provocar activamente nuestra propia extinción. Es plausible
que en un futuro no muy lejano", escribe, "seamos capaces de crear
criaturas artificialmente inteligentes con cualquier rasgo físico y psicológico
que elijamos". Aceptando esta hipótesis, se argumenta que deberíamos
diseñar nuestra extinción para que los recursos de nuestro planeta puedan
dedicarse a crear criaturas artificiales con vidas mejores." El propio Hans Moravec fue uno de los
primeros transhumanistas que, como vimos, espera "alegremente"
catalizar "el fin" de nuestra especie sustituyéndonos por máquinas
inteligentes.
Sin embargo, si definimos la "humanidad" de forma
que incluya a estos seres posthumanos, entonces los transhumanistas y los
largoplacistas sí que se preocupan por evitar la "extinción humana",
incluso si nuestra propia especie muere por el camino. Así que no nos dejemos engañar por el lenguaje: cuando
estas personas dicen que les preocupa evitar la extinción humana, no están
expresando su compromiso con el "Equipo
Humano", un término popularizado por el teórico de los medios Douglas
Rushkoff. En su lugar, están
en el "Equipo Posthumano", y realmente no les importa si el Homo
sapiens tiene o no un hogar en el futuro.
Por desgracia, redefinir la "humanidad" del modo
en que lo hacen los transhumanistas y los largoplacistas ha enturbiado por
completo todo el debate público sobre la "extinción humana".
Permítanme ilustrarlo con una frase de Elon Musk, que publicó en X a
finales del año pasado que "la verdadera batalla es entre los
extincionistas y los humanistas". Esto era en parte, al parecer, una
referencia al debate sobre si debemos apresurarnos a crear IA avanzadas o
tomarnos nuestro tiempo y actuar con cautela. Musk se considera uno de los
humanistas, miembro del Equipo Humano. No está de acuerdo con Larry Page en que
si nos quitamos de en medio y dejamos que nuestra progenie de IA tome el
control, todo irá bien.
Sin embargo, Musk es
transhumanista y largoplacista. Su empresa Neuralink aspira a "poner
en marcha la evolución transhumana" y a "impulsar la siguiente fase
de la evolución humana", según un artículo de Futurism. O, como dice Vox, el
objetivo de Neuralink es "fusionar los cerebros humanos con la IA",
lo que constituiría un gran paso para convertirse en posthumanos. En un sentido
obvio e innegable, esto es extincionismo, porque fusionar nuestros cerebros con
la IA nos está moviendo hacia un futuro que estará dominado por seres
posthumanos, en el que nuestra humilde especie de humanos biológicos será
marginada, si no totalmente borrada, posiblemente en las próximas décadas.
La afirmación de
Musk sobre los humanistas frente a los extincionistas, y su sugerencia de que
él es uno de los humanistas, es por tanto profundamente engañosa. A Musk no le
preocupa que nos sustituyan, sino lo que podría sustituirnos. Ese es su
único gran punto de desacuerdo con Larry Page y los demás aceleracionistas. En lo que estos dos grupos están de acuerdo
es mucho más significativo: que nuestra especie es un puente temporal que
conecta el mundo biológico con una nueva era digital, en la que las IA
posthumanas o los cyborgs mejorados con IA dirigirán el mundo. Esto es
extincionismo, utilizando el término de Musk, o lo que yo he venido llamando
proextincionismo.
Los verdaderos
"humanistas" son los que se oponen a que un ser posthumano sustituya
o margine a nuestra especie en los próximos siglos o milenios. Los humanistas
como yo nos oponemos a Musk, Page, Moravec, Sutton y los radicales e/acc.
Para luchar
eficazmente contra la creciente influencia de estas ideologías pro-extinción,
es crucial que los miembros del público sepan qué son estas ideologías, el
papel que están desempeñando en la carrera para construir IA avanzada, y cómo
los defensores de estas ideologías redefinen las palabras para dar la impresión
de que se oponen a algo -la extinción humana- que en realidad están trabajando
para lograr. No se deje engañar: los proextincionistas están a nuestro
alrededor, en forma de filósofos y ecologistas marginales, así como de
multimillonarios de la tecnología y científicos informáticos de Silicon Valley
que ostentan un enorme poder.
La gente tiene razón
al preocuparse por el futuro de nuestra especie. Pero para proteger ese futuro,
es imperativo que entendamos quién está y quién no está luchando por la supervivencia
de nuestra especie.
https://www.climaterra.org/post/de-qu%C3%A9-lado-estas-de-los-humanos-o-posthumanos
No hay comentarios:
Publicar un comentario