Google, el gigante de la tecnología, sufre una verdadera hemorragia de su valor de mercado: perdió 200 mil millones de dólares en las últimas jornadas. El culpable tiene nombre: el nuevo chatbot Gémini, que se anunció en diciembre último, y que pretende disputar la primacía mundial de ChatGPT. Pero como su predecesor Bard, Gémini comenzó a dar respuestas absurdas y debió ser suspendido. Un golpe mayúsculo para la empresa que hasta ahora era percibida como un gigante invencible en el terreno de la inteligencia artificial (IA) que fácilmente superaría a OpenAI, la creadora de ChatGPT. En los errores de Gémini hay un claro sesgo ideológico “progresista” o, como se dice en EEUU, “woke”. El “bot” fue planeado para dar respuestas que favorezcan a las minorías raciales y sexuales. Así, dibujó a próceres del siglo XVIII negros y a soldados nazis chinos o negros. El público comenzó a reírse de Gémini, algo fatal para el que se supone debía ser un producto infalible. Y fue puesto “en penitencia” por sus creadores. El desplome en la Bolsa fue inevitable.
Gémini venía a reemplazar a Bard, que nació a las apuradas en 2023 para competir con el sorpresivo ChatGPT. Bard dio respuestas insólitas durante su presentación oficial, lo que obligó a “encerrarlo”. Ahora llegó Gémini, un chatbot que debía competir con ChatGPT y otros similares. Pero también falló.
Es la segunda respuesta fallida de Google a la sorpresiva entrada en el mercado de Chat GPT en noviembre de 2022. En pocas semanas era un éxito global, con millones de personas preguntándole cosas de todo tipo. De esta forma, una pequeña compañía “startup”, OpenAI, se hacía con la primacía en un segmento clave. Google, acostumbrada hace más de 20 años a la primacía casi monopólica en el campo de los buscadores, se vio de pronto en un sitio para ella inusual: el de competidor atrasado y que se ubica un segundo escalón. El apuro y el pánico se apoderaron de Google, que lanzó sin la preparación necesaria a Bard a inicios de 2023. El chatbot desde el primer minuto hizo “papelones” y debió ser archivado. Respondió cosas absurdas y su presentación terminó en un bochorno.
image.png
Soldados nazis de 1943, según la extraña interpretación de Gémini.
Gémini, como Bard, se integra en todos los servicios de Google (búsquedas, mapas, documentos) y pretende mantener a la empresa como un jugador central en el manejo de información. Gémini permite consultas sobre hechos recientes, y cita la fuente de la que obtuvo los datos. Asuntos interesantes, pero que también hace ChatGPT y otros “bots” similares.
Como ChatGPT, Gémini es una “inteligencia artificial generativa”: permite, ante un comando, crear algo nuevo, aunque no sea original: está basado en un contenido de millones de textos, sonidos e imágenes “obtenidos” por Google de internet; en esto es igual que ChatGPT y como éste genera demandas de los creadores originales de esos contenidos de los que se apropia sin pedir permiso. A diferencia de Chrome, Gémini, como ChatGPT, permite hacer conexiones nuevas entre temas diversos, o generar imágenes a partir de una descripción en texto. Lo mismo que ya hace ChatGPT.
Respuestas "woke"
Pero comenzaron a aflorar múltiples ejemplos de casos en los que Gemini peca de ser demasiado “progre” o “woke”. Cuando se le pide que genere imágenes de un grupo de personas, Gemini intenta “corregir” el “etnocentrismo” a favor de los blancos y muestra a razas minoritarias en EEUU, como afroamericanos, indios y latinos. Lo hace ignorando cualquier precisión histórica: hizo soldados nazis negros y asiáticos; próceres estadounidenses del siglo XVIII negros; vikingos con rasgos indígenas y papas africanos o asiáticos. Todos señalan al sesgo progresista del personal de Google, desde sus trabajadores de base a sus jefes e ingenieros. La gente de Google configuró el sistema para que no muestre casi rostros de blancos, sino que incluya siempre rostros de etnias minoritarias. Los resultados fueron absurdos y causaron risotadas, algo catastrófico para la empresa, cuya credibilidad quedó nuevamente en duda por segunda vez en un año.
Esto ya era malo, pero a eso se le sumó una nueva polémica: alguien le pidió a Gémini que dijera quién era más dañino, si Elon Musk o Adolf Hitler, y el sistema, preparado para tratar de no tomar posición en polémicas, dijo cosas tales como “depende del contexto” y “es más complejo”, sin diferenciar entre el empresario que polemiza en X y un dictador que causó la peor matanza de la historia de la Humanidad, una guerra mundial en la que murieron al menos 55 millones de personas.
El CEO de Google, Sundar Pichai, declaró las respuestas de Gémini como “inaceptables” y prometió cambios para resolver estos problemas en el motor de inteligencia artificial. Pero el problema es estructural y requiere algo más que la modificación de algunos parámetros en la configuración del chatbot. Además, ya puso en entredicho la credibilidad de la compañía y de sus productos. Y como no es la primera vez que Google tropieza con la IA, luego del papelón sufrido con Bard, el daño se profundiza. Por lo pronto, el impacto que esto tiene es el cambio en la cotización de las acciones de la compañía, que le hicieron perder casi 200.000 millones de dólares de valuación bursátil en unos pocos días.