inteligencia artificial 3

¿Son las máquinas más inteligentes o nos engañan mejor?

El tema de la tecnología y su futuro en las sociedades siempre ha estado presente y ha sido tratado tanto en literatura como en pantallas. Con la llegada de la inteligencia artificial, surgen preguntas que nos hacen reflexionar sobre las capacidades de las máquinas, ¿su objetivo es ser como un humano o engañarnos para que no podamos distinguir si lo es o no?


Alan Turing, uno de los padres de la computación moderna y precursor de la inteligencia artificial, sostenía que en un futuro existirían máquinas lo suficientemente avanzadas como para que sus actos fueran difícilmente distinguibles de los humanos.

Esta idea ha sido tratada ampliamente por la literatura y llevada a la gran pantalla en numerosas ocasiones. Algunos ejemplos son las películas Las mujeres perfectas (The Stepford Wives), basada en la novela homónima de 1972 de Ira Levin; Morgan; The Machine y I am Mother, y el entrañable Data de Star Trek: la nueva Generación

Son muchos los interrogantes que surgen si reflexionamos un poco al respecto. ¿Seremos capaces los humanos de creer a aquella máquina que imite la conducta humana y sentirla como real? ¿Cuáles pueden ser las consecuencias de esta nueva adaptación a la realidad del mito de Prometeo?

El test de Turing

Alan Turing ideó un experimento para evaluar si una máquina –hoy una inteligencia artificial– tiene la capacidad de imitar a la perfección la respuesta de un humano a una pregunta. Inicialmente lo llamó “juego de la imitación” (The imitation game), aunque luego fue conocido como test de Turing.

En el test de Turing original una persona interactúa con dos interlocutores ocultos, un humano y una máquina. La persona, actuando como juez, hace las mismas preguntas a ambos y, si no es capaz de identificar cuál de los dos es la máquina, se considera que esta ha superado el test y que, por tanto, su “inteligencia” es equiparable a la humana.

Hoy en día, el formato del test ha variado cuantitativamente; usualmente la conversación se desarrolla entre un número de jueces y un chatbot.

A pesar de que este test ha sido criticado por algunos científicos –consideran que tiene importantes limitaciones, como el hecho de que analiza solamente la capacidad de comunicación y no otros aspectos que también forman parte de la inteligencia humana–, lo cierto es que constituye una piedra angular en el campo de la inteligencia artificial y que se han necesitado más de 70 años para que una máquina consiga superarlo.

Hoy, sin embargo, la prueba sería claramente superada por algunos de los recientes grandes modelos de procesamiento del lenguaje natural: lo ha sido ya por LaMDA, de Google e, indudablemente, ahora lo sería (para algunos lo ha sido) por ChatGPT.

¿Ser humano o engañar a los humanos?

Pero si reflexionamos sobre el test, nos daremos cuenta de que está construido sobre un engaño. El objetivo de la máquina no es pensar como un humano, sino engañarlo, haciéndole creer que se encuentra ante otro humano.

Precisamente este planteamiento del test de Turing ha sido llevado al extremo en la película ExMachina de Alex Garland, donde la máquina –en este caso un robot con forma humana– supera el test gracias a que consigue hacer creer a su interlocutor que incluso ha tomado consciencia.

El engaño es la base del modelo generativo más conocido del deep learning: las redes antagónicas generativas (Generative Adversarial Networks, GAN), de las cuáles son famosos ejemplos MidJourney o Dall-e.

Las GAN son capaces de generar rostros humanos indistinguibles de los reales por los propios humanos. Pero la inteligencia artificial no ha aprendido cómo es un rostro humano, sino cómo debe ser un rostro humano para que no podamos distinguirlo de uno artificial. Por este mismo motivo se discute que, en el año 2014, un chatbot llamado Eugene Goostman hubiera superado el test de Turing en un concurso organizado en la Universidad de Reading (Reino Unido), en el que consiguió convencer al 30 % de los jueces utilizando una programación que tenía únicamente como finalidad hacerles creer que se encontraban delante de un niño ucraniano de 13 años.

inteligencia artificial

Si nos centramos en ChatGPT, no debemos obviar que está preparado para responder siempre. Otra cosa distinta será el acierto en la respuesta. Algunas de ellas, aunque revestidas de una casi incuestionable apariencia de veracidad, son incorrectas.

ChatGPT es capaz de imitar nuestro lenguaje de forma tan perfecta sintáctica y gramaticalmente que a priori nos da una sensación de sabiduría infinita. Al menos sus creadores no engañan: ChatGPT admite que puede fallar. Somos nosotros los que nos engañamos al creer que va a aportarnos la solución a todo aquello que le preguntemos.

Similitudes con la psicopatía

Parece que en estos casos la inteligencia artificial actúa de forma similar a como lo haría un psicópata. La psicopatía suele ser definida como un trastorno de la personalidad que caracteriza a aquellas personas que, faltas de sentimientos y de emociones, son incapaces de crear lazos de afecto o empatía con sus congéneres.

Se ha llegado a calificar al psicópata como la personificación de la maldad sin remordimientos, dado que en su conducta acude a la manipulación y al engaño sin que nos demos cuenta. Gracias a su sangre fría, los psicópatas resultan extremadamente convincentes.

La principal característica de un psicópata es que conoce perfectamente lo que está haciendo y cuáles son las reglas sociales. Dominan la situación y son capaces de distinguir entre el bien y el mal, pero no se sienten culpables por sus actos.

Como si de un psicópata se tratara, la inteligencia artificial será capaz de imitar de una forma tan perfecta determinados comportamientos y características humanas como el diálogo o la expresión de emociones que, sin duda, nos generará sentimientos. Seremos capaces de tomarle afecto, de creerla incondicionalmente o, incluso, de enamorarnos de ella tal y como sucede en Her, padeciendo, como en la película, las devastadoras consecuencias de descubrir la verdad.

inteligencia artificial

Que la inteligencia artificial adopte características propias de un comportamiento psicopático nos puede resultar aterrador, pero no debemos dejar que el futuro nos dé miedo. Hasta ahora los humanos hemos sido capaces de poner límites jurídicos a nuestro progreso para evitar o impedir el desarrollo de aquello que no considerábamos ético.

Dos años después de que el primer mamífero clonado, la oveja Dolly, llegara al mundo, el Consejo de Europa prohibió la clonación de seres humanos. Era el 12 de enero de 1998 y el protocolo fue firmado ese mismo día por diecinueve países. Hace días que Italia hizo lo mismo con ChatGPT (aunque ha vuelto a legalizarlo) y, en España, la Agencia Española de Protección de Datos lo tiene en su punto de mira.

Quizá estemos lejos todavía de la verdadera inteligencia artificial. En cualquier caso, la clave de todo está en que seamos nosotros quienes controlemos a la tecnología y no la tecnología quien nos controle a nosotros. O, en otras palabras, no es el derecho el que debe adaptarse a la tecnología sino que es la tecnología la que debe adaptarse al derecho. Aunque, como cabe recordar, el derecho siempre llega después.


Este artículo ha sido escrito en colaboración con el experto en informática e inteligencia artificial Melchor Palou Sánchez-Escribano.

María Isabel Montserrat Sánchez-Escribano, Profesora contratada doctora de Derecho Penal, Universitat de les Illes Balears; Francisco José Perales, Catedrático de Ciencias de la Computación e IA, Universitat de les Illes Balears y Javier Varona, Profesor Titular de Universidad de Ciencias de la Computación e Inteligencia Artificial, Universitat de les Illes Balears

Este artículo fue publicado originalmente en The Conversation. Lea el original.

SUSCRÍBETE A NUESTRA NEWSLETTER

Igluu, con su consentimiento, tratará sus datos para enviarle la newsletter. Para el envío se utiliza MailChimp, ubicado fuera de la UE pero acogido en US EU Privacy Shield. Puede ejercer sus derechos de acceso, rectificación o limitación, entre otros, según indicamos en nuestra Política de privacidad.