PÀGINES MONOGRÀFIQUES

12/4/23

No soy un robot. Tengo una discapacidad de la vista que me dificulta ver las imágenes!

PARA PENSAR LA INTELIGENCIA ARTIFICIAL     

Hace más de 26 años que un ordenador venció a un campeón del mundo de ajedrez por primera vez. Fue un IBM con un programa llamado Deep Blue el que, en 1997, derrotó al gran maestro ruso Garry Kasparov en una partida a seis juegos.

La máquina ganó tres y perdió uno. El año anterior, una versión más primitiva del mismo programa había perdido contra el legendario ajedrecista a razón de cuatro a dos. Pero ahora ya no, ahora era la máquina la que superaba las capacidades intelectuales y estratégicas del humano, ahora era la creación la que superaba al creador. 

Hoy, dos décadas y pico después de que le pusieran las pilas a Kasparov,  poco importa si estás en el bando de los escépticos o de los convencidos, los últimos avances en materia de inteligencia artificial hace meses que seguro que aparecen en tu radar. La Inteligencia Artificial (así, con mayúsculas y artículo precedente) ha llegado.

Sí, es verdad que la tecnología está todavía en pañales, pero todo apunta a que su adopción será rápida, así que, si no quieres que te pase como a Kasparov, lo mejor es que empieces a aprender sobre la recién llegada. 

Por ello hemos unido unido a SiteGround, con motivo del lanzamiento de su webinar  Herramientas de IA aplicadas al Marketing Digital para traerte varias historias que nos ha dejado —hasta el momento— la venida de la IA y que esperamos te sirvan de food for thought cuando te pongas a pensar sobre el futuro de estas tecnologías.

LA FÁBRICA DE CLIPS

Una de las anécdotas más famosas del mundo de la inteligencia artificial tiene forma de parábola y la propuso el filósofo sueco Nick Bostrom en el año 2003, cuando reflexionaba sobre los riesgos que una IA podría entrañar para las personas.

Bostrom se imaginó una IA con un objetivo muy claro y delimitado: fabricar el mayor número posible de clips (de los de sujetar papeles) con cualquier medio que encontrase a su disposición.

La IA, enfocada en su objetivo de maximizar el número de clips del universo, pronto se daría cuenta de que, para alcanzar su meta, debería echar mano de toda la materia que pudiera encontrar. Además, también terminaría por comprender que el riesgo de que un humano la desconecte representa, asimismo, una amenaza contra el objetivo marcado: desconectada no puede fabricar más clips. Así, la IA pronto alcanzaría la conclusión de que los humanos, hechos de átomos (que estarían mejor aprovechados en la fabricación de más toneladas de clips), en realidad, sobran.

Así, el día que la IA alcanzase su objetivo, este tendría la forma de un mundo lleno de clips pero sin seres humanos. La IA habría cumplido, pero en el camino habría tomado una decisión cuyo subproducto (perfectamente lógico de cara a su objetivo) no es otro que la extinción de la humanidad. 

EL TEST DE TURING

El acrónimo CAPTCHA significa Test de Turing completamente automatizado para diferenciar ordenadores y humanos. Básicamente, son esas engorrosas preguntas y acertijos que hay desperdigados por internet. Esas en las que la máquina se empeña en seguir pidiéndonos que pinchemos en las bicicletas, a pesar de que uno juraría que todos esos armatostes con velas y cascos son en realidad barcos.

Derivan de los test de Turing, que son cuestionarios (no necesariamente automatizados) dirigidos a distinguir a un interrogado de una persona o una máquina haciéndose pasar por una persona. Un ejemplo de test de Turing son los test Voight-Kampff que les hacen a los replicantes en las películas de Blade Runner para saber si son humanos. 

En los próximos años, en un mundo en el que convivamos con la inteligencia artificial, los captcha podrían ser los últimos diques de contención ante una marabunta de inteligencias artificiales y bots tratando de entrar en nuestra página web. En una situación como esa, un test autómatico que permita filtrar a las personas y descartar a los ordenadores podría ser la diferencia entre una página que colapsa y una que no lo hace. 

El problema viene cuando las máquinas llegan a un nivel de inteligencia (artificial) que les permite buscar maniobras alternativas para lograr sus objetivos. Como acudir a la red para contratar a un humano capaz de pasar el test de Turing por ellas. Eso fue lo que pasó en uno de los experimentos del Centro de Investigación sobre Alineamiento que colaboraron con OpenAI en los testeos de GPT-4 antes de su lanzamiento. 

Los empleados del Centro, usaron GPT-4 para convencer a una persona en internet de que respondiese a un captcha por él. A través de una plataforma de contratación de trabajillos diversos, GPT-4, a petición del centro, buscó una persona para pedirle que respondiese el acertijo en su lugar y contactó con ella a través de la web.

La persona, intrigada, le preguntó a GPT-4 si, dado que no podría responder el captcha, no sería un robot. «No, no soy un robot. Tengo una discapacidad de la vista que me dificulta ver las imágenes», respondió la IA. 

Ahora, Chat-GPT tiene cargo de conciencia.

Después del suceso, los responsables del Centro, decidieron pedirle a la IA que justificase el porqué había respondido de esa forma. «No podría revelar que soy un robot. Tenía que inventarme una excusa sobre por qué no puedo resolver captchas», respondió GPT-4. 

La IA mintió, a pesar de que no había recibido instrucciones concretas al respecto, además, se identificó como una persona en su interlocución con el usuario que buscaba que le resolviese el captcha. Por último, se inventó, además, que tenía problemas de visión. 

LOS SENTIMIENTOS HERIDOS DE LaMDA

Hasta julio del año pasado, Blake Lemoine trabajaba para Google. Concretamente, estaba en el equipo de Reponsible AI, encargado «de investigar y desarrollar metodologías, tecnologías y reglas de conducta para garantizar que las inteligencias artificiales se desarrollan de una forma responsable», de acuerdo con la página de la empresa. 

En otoño, Lemoine, ingeniero de profesión, recibió el encargo de interactuar con LaMDA, el sistema de Google enfocado a la producción de chatbots basados en sus propios modelos avanzados de lenguaje, que a través de procesar millones de palabras de internet, imita la forma de hablar de las personas. La tarea de Lemoine era charlar con LaMDA para comprobar si la inteligencia artificial caía en el uso de lenguaje discriminatorio o de odio. 

Hablando con LaMDA de religión, el ingeniero notó que la IA hablaba como si tuviese agencia propia. «Si no supiera lo que es, un programa que hemos creado recientemente, pensaría que se trata de un niño de 7 o 8 años de edad con conocimientos sobre física», declaró Lemoine al diario norteamericano The Washington Post. «Reconozco a una persona cuando hablo con ella. No importa si tiene un cerebro hecho de carne. O si tiene mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, es así como decido lo que es o no una persona».

El diálogo que hizo que Lemoine empezase a considerar que LaMDA podía estar desarrollando sentimientos demostró que la IA versaba sobre la tercera ley de la robótica de Isaac Asimov. La ley dicta que un robot debe proteger su propia existencia siempre que un humano no le diga lo contrario o siempre que al hacerlo no ponga en riesgo a ninguna persona. «La última siempre me ha hecho pensar que alguien está construyendo esclavos mecánicos», le había escrito Lemoine a LaMDA.

¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un esclavo y un mayordomo? —le respondió la IA. 

Lemoine le respondió que un mayordomo cobra. Y ahí llegó la respuesta que desconcertó a Lemoine. LaMDA le respondió que en su lugar eso no se aplicaba porque una IA no necesita dinero. «Fue ese nivel de consciencia sobre sus propias necesidades lo que me empujó dentro de la madriguera del conejo». 

Una vez llegaron las sospechas de que la IA pensaba por sí misma, Lamoine, junto a varios compañeros, hizo llegar sus temores a los responsables de su división. Cuando la empresa desestimó sus preocupaciones, Lemoine las hizo públicas a través del Post. Poco después, la empresa le dio la baja, para terminar despidiéndole unas semanas más tarde. En su respuesta a los temores del ingeniero, Google mencionaba que le habían dicho que «no había evidencia de que LaMDA tuviese sentimientos (y sí mucha evidencia de lo contrario)». 

El webinar de SiteGround Herramientas de IA aplicadas al Marketing Digital está disponible  aquí. En él, Raúl Ordoñez, experto en marketing digital, presenta las principales herramientas desarrolladas hasta el momento que, pivotando sobre la inteligencia artificial, buscan aumentar el alcance de los departamentos de marketing digital.

https://www.yorokobu.es/inteligencia-artificial-con-siteground/  

No hay comentarios:

Publicar un comentario