Meta (dueña de Facebook) los ve como inteligencia artificial “divertida”. Otros consideran que el último avance tecnológico podría marcar el primer paso hacia la creación de “los artefactos más peligrosos de la historia de la humanidad”, según afirma el filósofo estadounidense Daniel C. Dennett sobre las “personas falsificadas” .
El miércoles 27 de septiembre, el gigante de las redes sociales anunció el lanzamiento de 28 chatbots (agentes conversacionales), que supuestamente tienen personalidad propia y han sido diseñados especialmente para usuarios más jóvenes. Estos incluyen a Víctor, un supuesto triatleta que puede motivarte “a ser tu mejor yo”, y Sally, la “amiga de espíritu libre que te dirá cuándo respirar profundamente”.
Los internautas también pueden charlar con Max, un “sous chef experimentado” que les dará “trucos y consejos culinarios”, o entablar una pelea verbal con Luiz, que “puede respaldar sus charlas basura”.
Para reforzar la idea de que estos chatbots tienen personalidad y no son simplemente una amalgama de algoritmos, Meta les ha puesto una cara a cada uno de ellos. Gracias a las asociaciones con celebridades, estos robots se parecen a la integrante del jet-set y DJ estadounidense Paris Hilton, a la estrella de TikTok Charli D’Amelio y a la tenista estadounidense-japonesa Naomi Osaka.
Y no es todo. Meta ha abierto cuentas de Facebook e Instagram para cada uno de sus agentes conversacionales para darles una existencia fuera de las interfaces de chat. La empresa matriz del imperio de Mark Zuckerberg también busca guionistas para “escribir personajes y otros contenidos narrativos de apoyo que atraigan un público amplio”.
Hacia "personas falsificadas"
Meta AI Chatbots Feature Likenesses of Tom Brady, Kendall Jenner & Many More Celebrities
Meta puede presentar estos 28 chatbots como una tarea inocente para distraer masivamente a los jóvenes usuarios de Internet, pero todos estos esfuerzos apuntan hacia un proyecto ambicioso para construir IA que se parezca lo más posible a los humanos, escribe The Rolling Stone. Esta carrera hacia las “personas falsificadas” preocupa a muchos observadores, que ya están preocupados por los recientes desarrollos generativos de modelos de lenguaje (LLM), como ChatGPT, Bard, Claude y Llama 2, este último de Facebook. Sin ir tan lejos como Dennett, que pide que se encierre a personas como Zuckerberg, “hay una serie de pensadores que denuncian el enfoque deliberadamente engañoso de estos grandes grupos”, afirma Ibo van de Poel, profesor de ética y tecnología en la la Universidad Tecnológica de Delft en los Países Bajos.
Además, las IA con personalidad son “imposibles”. La idea de agentes conversacionales “con personalidad es literalmente imposible”, afirma van de Poel. Los algoritmos son incapaces de demostrar “intención en sus acciones o libre albedrío, dos características que se consideran íntimamente ligadas a la idea de personalidad”. Literalmente, un algoritmo conversacional “no sabe lo que hace”, afirman algunos de los máximos expertos en IA. De ahí que frecuentemente caigan en “alucinaciones”, es decir, en creer cosas que no existen.
Meta y otros pueden, en el mejor de los casos, imitar ciertos rasgos que conforman una personalidad. “Debe ser tecnológicamente posible, por ejemplo, enseñar a un chatbot a actuar como la persona que representa”, afirmó van de Poel. Por ejemplo, la IA Amber de Meta, que se supone que se parece a Hilton, puede hablar de la misma manera que su alter ego humano.
Personalidades "erróneas"
El siguiente paso será capacitar a estos LLM para que expresen las mismas opiniones que la persona a la que se parecen. Este es un comportamiento mucho más complicado de programar, ya que implica crear una especie de imagen mental precisa de todas las opiniones de una persona. También existe el riesgo de que los chatbots con personalidad “salgan mal”. Uno de los agentes conversacionales que Meta probó expresó opiniones “misóginas”, según el Wall Street Journal, que pudo consultar documentos internos de la empresa. Otro cometió el “pecado mortal” de criticar a Zuckerberg y elogiar a TikTok.
Para construir estos chatbots, Meta explica que se propuso brindarles “historias personales únicas”. En otras palabras, los creadores de estas IA les han escrito biografías con la esperanza de que puedan desarrollar una personalidad basada en lo que han leído sobre sí mismos.
“Es un enfoque interesante, pero habría sido beneficioso añadir psicólogos a estos equipos para comprender mejor los rasgos de la personalidad”, afirmó Anna Strasser, una filósofa alemana que participó en un proyecto para crear un modelo de lenguaje de gran tamaño capaz de filosofar.
Meta presentó 28 chatbots de Paris Hilton y otras estrellas. “Son personas falsificadas”, alerta la revista The Rolling Stone Meta presentó 28 chatbots de Paris Hilton y otras estrellas. “Son personas falsificadas”, alerta la revista The Rolling Stone
El último proyecto de IA de Meta está claramente impulsado por la sed de ganancias. “La gente sin duda estará dispuesta a pagar para poder hablar y tener una relación directa con Paris Hilton u otra celebridad”, dijo Strasser. Cuanto más los usuarios sientan que están hablando con un ser humano, “más cómodos se sentirán, más tiempo permanecerán y más probabilidades habrá de que regresen”, dijo van de Poel. Y en el mundo de las redes sociales , el tiempo (gastado en Facebook y sus anuncios) es dinero.
Ciertamente no es sorprendente que la primera incursión de Meta en la IA con “personalidad” sean los chatbots dirigidos principalmente a adolescentes. “Sabemos que los jóvenes tienen más probabilidades de ser antropomórficos”, afirmó Strasser. Sin embargo, los expertos entrevistados consideran que Meta está jugando a un juego peligroso al resaltar las “características humanas” de sus IA. “Realmente hubiera preferido que este grupo se hubiera esforzado más en explicar los límites de estos agentes conversacionales, en lugar de intentar hacerlos parecer más humanos”, dijo van de Poel.
La aparición de estos potentes LLM ha alterado “la dicotomía entre lo que es una herramienta u objeto y lo que es un ser vivo. Estos ChatGPT son un tercer tipo de agente que se sitúa en algún punto entre los dos extremos”, afirmó Strasser. Los seres humanos todavía están aprendiendo cómo interactuar con estas nuevas y extrañas entidades, por lo que al hacer creer a la gente que un agente conversacional puede tener una personalidad, Meta sugiere que se lo trate más como otro ser humano que como una herramienta.
“Los usuarios de Internet tienden a confiar en lo que dicen estas IA”, lo que las hace peligrosas, afirmó van de Poel. No se trata sólo de un riesgo teórico: un hombre en Bélgica acabó suicidándose en marzo de 2023 después de discutir durante seis semanas las consecuencias del calentamiento global con un chatbot o agente conversacional.
Sobre todo, si la frontera entre el mundo de las IA y el de los humanos finalmente se difumina por completo, “esto podría destruir potencialmente la confianza en todo lo que encontramos en línea, porque no sabremos quién escribió qué”, afirmó Strasser. Esto, como advirtió Dennett en su ensayo, abriría la puerta a “destruir nuestra civilización. La democracia depende del consentimiento informado (no mal informado) de los gobernados [que no se puede obtener si ya no sabemos en qué y en quién confiar]”. Queda por ver si chatear con una IA parecida a Hilton significa que estamos en el camino de destruir el mundo tal como lo conocemos.