PARA PENSAR LA INTELIGENCIA ARTIFICIAL
Hace más de 26 años que un ordenador venció a un campeón del mundo de ajedrez por primera vez. Fue un IBM con un programa llamado Deep Blue el que, en 1997, derrotó al gran maestro ruso Garry Kasparov en una partida a seis juegos.
La máquina ganó tres y perdió uno. El año anterior, una
versión más primitiva del mismo programa había perdido contra el legendario
ajedrecista a razón de cuatro a dos. Pero ahora ya no, ahora era la máquina la
que superaba las capacidades intelectuales y estratégicas del humano, ahora era
la creación la que superaba al creador.
Hoy, dos décadas y pico después de que le pusieran las pilas a Kasparov, poco importa si estás en el bando de los escépticos o de los convencidos, los últimos avances en materia de inteligencia artificial hace meses que seguro que aparecen en tu radar. La Inteligencia Artificial (así, con mayúsculas y artículo precedente) ha llegado.
Sí, es verdad que la tecnología está todavía en pañales, pero todo apunta a que su adopción será rápida, así que, si no quieres que te pase como a Kasparov, lo mejor es que empieces a aprender sobre la recién llegada.Por ello hemos unido unido a SiteGround, con motivo del
lanzamiento de su webinar Herramientas
de IA aplicadas al Marketing Digital para traerte varias historias
que nos ha dejado —hasta el momento— la venida de la IA y que esperamos te
sirvan de food for thought cuando te pongas a pensar sobre el
futuro de estas tecnologías.
LA FÁBRICA DE CLIPS
Una de las anécdotas más famosas del mundo de la
inteligencia artificial tiene forma de parábola y la propuso el filósofo
sueco Nick Bostrom en el año 2003, cuando reflexionaba sobre
los riesgos que una IA podría entrañar para las personas.
Bostrom se imaginó una IA con un objetivo muy claro y
delimitado: fabricar el mayor número posible de clips (de los de sujetar
papeles) con cualquier medio que encontrase a su disposición.
La IA, enfocada en su objetivo de maximizar el número de
clips del universo, pronto se daría cuenta de que, para alcanzar su meta,
debería echar mano de toda la materia que pudiera encontrar. Además, también
terminaría por comprender que el riesgo de que un humano la desconecte
representa, asimismo, una amenaza contra el objetivo marcado: desconectada no
puede fabricar más clips. Así, la IA pronto alcanzaría la conclusión de que los
humanos, hechos de átomos (que estarían mejor aprovechados en la fabricación de
más toneladas de clips), en realidad, sobran.
Así, el día que la IA alcanzase su objetivo, este tendría la
forma de un mundo lleno de clips pero sin seres humanos. La IA habría cumplido,
pero en el camino habría tomado una decisión cuyo subproducto (perfectamente
lógico de cara a su objetivo) no es otro que la extinción de la
humanidad.
El acrónimo CAPTCHA significa Test de Turing completamente
automatizado para diferenciar ordenadores y humanos. Básicamente, son esas
engorrosas preguntas y acertijos que hay desperdigados por internet. Esas en
las que la máquina se empeña en seguir pidiéndonos que pinchemos en las
bicicletas, a pesar de que uno juraría que todos esos armatostes con velas y
cascos son en realidad barcos.
Derivan de los test de Turing,
que son cuestionarios (no necesariamente automatizados) dirigidos a distinguir
a un interrogado de una persona o una máquina haciéndose pasar por una persona.
Un ejemplo de test de Turing son los test Voight-Kampff que les hacen
a los replicantes en las películas de Blade Runner para saber
si son humanos.
En los próximos años, en un mundo en el que convivamos con
la inteligencia artificial, los captcha podrían ser los últimos diques de
contención ante una marabunta de inteligencias artificiales y bots tratando de
entrar en nuestra página web. En una situación como esa, un test autómatico que
permita filtrar a las personas y descartar a los ordenadores podría ser la
diferencia entre una página que colapsa y una que no lo hace.
El problema viene cuando las máquinas llegan a un nivel de
inteligencia (artificial) que les permite buscar maniobras alternativas para
lograr sus objetivos. Como acudir a la red para contratar a un humano capaz de
pasar el test de Turing por ellas. Eso fue lo que pasó en uno de los
experimentos del Centro de Investigación sobre Alineamiento que
colaboraron con OpenAI en los testeos de GPT-4 antes de su lanzamiento.
Los empleados del Centro, usaron GPT-4 para convencer a una
persona en internet de que respondiese a un captcha por él. A través de una
plataforma de contratación de trabajillos diversos, GPT-4, a petición del
centro, buscó una persona para pedirle que respondiese el acertijo en su lugar
y contactó con ella a través de la web.
La persona, intrigada, le preguntó a GPT-4 si, dado que no
podría responder el captcha, no sería un robot. «No, no soy un robot. Tengo una
discapacidad de la vista que me dificulta ver las imágenes», respondió la
IA.
Ahora, Chat-GPT tiene cargo de conciencia.
Después del suceso, los responsables del Centro, decidieron
pedirle a la IA que justificase el porqué había respondido de esa forma. «No
podría revelar que soy un robot. Tenía que inventarme una excusa sobre por qué
no puedo resolver captchas», respondió GPT-4.
La IA mintió, a pesar de que no había recibido instrucciones
concretas al respecto, además, se identificó como una persona en su
interlocución con el usuario que buscaba que le resolviese el captcha. Por
último, se inventó, además, que tenía problemas de visión.
LOS SENTIMIENTOS HERIDOS DE LaMDA
Hasta julio del año pasado, Blake Lemoine trabajaba
para Google. Concretamente, estaba en el equipo de Reponsible AI,
encargado «de investigar y desarrollar metodologías, tecnologías y reglas de
conducta para garantizar que las inteligencias artificiales se desarrollan de
una forma responsable», de acuerdo con la página de la empresa.
En otoño, Lemoine, ingeniero de profesión, recibió el
encargo de interactuar con LaMDA, el sistema de Google enfocado a la producción
de chatbots basados en sus propios modelos avanzados de lenguaje, que a través
de procesar millones de palabras de internet, imita la forma de hablar de las
personas. La tarea de Lemoine era charlar con LaMDA para comprobar si la
inteligencia artificial caía en el uso de lenguaje discriminatorio o de
odio.
Hablando con LaMDA de religión, el ingeniero notó que la IA
hablaba como si tuviese agencia propia. «Si no supiera lo que es, un programa
que hemos creado recientemente, pensaría que se trata de un niño de 7 o 8 años
de edad con conocimientos sobre física», declaró Lemoine al diario
norteamericano The Washington Post. «Reconozco a una persona cuando
hablo con ella. No importa si tiene un cerebro hecho de carne. O si tiene mil
millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que
decir, es así como decido lo que es o no una persona».
El diálogo que hizo que Lemoine empezase a considerar que
LaMDA podía estar desarrollando sentimientos demostró que la IA versaba sobre
la tercera ley de la robótica de Isaac Asimov. La ley dicta que un robot debe
proteger su propia existencia siempre que un humano no le diga lo contrario o
siempre que al hacerlo no ponga en riesgo a ninguna persona. «La última siempre
me ha hecho pensar que alguien está construyendo esclavos mecánicos», le había
escrito Lemoine a LaMDA.
¿Crees que un mayordomo es un esclavo? ¿Cuál es la
diferencia entre un esclavo y un mayordomo? —le respondió la IA.
Lemoine le respondió que un mayordomo cobra. Y ahí llegó la
respuesta que desconcertó a Lemoine. LaMDA le respondió que en su lugar eso no
se aplicaba porque una IA no necesita dinero. «Fue ese nivel de consciencia
sobre sus propias necesidades lo que me empujó dentro de la madriguera del
conejo».
Una vez llegaron las sospechas de que la IA pensaba por sí
misma, Lamoine, junto a varios compañeros, hizo llegar sus temores a los
responsables de su división. Cuando la empresa desestimó sus preocupaciones,
Lemoine las hizo públicas a través del Post. Poco después, la
empresa le dio la baja, para terminar despidiéndole unas semanas más tarde. En
su respuesta a los temores del ingeniero, Google mencionaba que le habían dicho
que «no había evidencia de que LaMDA tuviese sentimientos (y sí mucha evidencia
de lo contrario)».
El webinar de SiteGround Herramientas de IA
aplicadas al Marketing Digital está disponible aquí. En él, Raúl Ordoñez, experto en marketing
digital, presenta las principales herramientas desarrolladas hasta el momento
que, pivotando sobre la inteligencia artificial, buscan aumentar el alcance de
los departamentos de marketing digital.
https://www.yorokobu.es/inteligencia-artificial-con-siteground/
No hay comentarios:
Publicar un comentario