Sobre finales de los noventa, el filósofo tunecino Pier Levy elabora un documento a pedido del Consejo de Europa que denomina: Cibercultura, donde aborda el impacto que presentan las tecnologías digitales sobre la cultura y la sociedad. Levy propone superar la metáfora de “irrupción tecnológica” destacando que resulta inadecuado pensar a la tecnología como un hecho externo, como algo que irrumpe en la vida humana y que la impacta. Por el contrario, dado que se trata de productos y acciones realizadas por personas humanas, no corresponde hablar de irrupción sino de construcción, donde se pone en juego una compleja trama de interacciones e imbricaciones de carácter tecnológicas, políticas, geopolíticas y empresariales.
Bajo este marco, entendemos a la Inteligencia Artificial como una rama de la informática que se ocupa del desarrollo de sistemas y programas capaces de realizar tareas que normalmente requieren inteligencia humana. Como disciplina no es tan reciente. Sus orígenes se remontan a la década del cincuenta, cuando el matemático Alan Turing propuso una suerte de experimento (conocido como Test de Turing) cuyo objetivo era (es) evaluar si las máquinas pueden comunicarse como lo haría una persona humana.
Desde entonces y por varias décadas, distintos equipos, universidades y empresas fueron desarrollando modelos, algoritmos y productos a medida que crecía exponencialmente la capacidad de cómputo, de almacenamiento y de datos disponibles. Así se fueron definiendo y redefiniendo alcances y campos disciplinares.
Hasta antes del 2010, se desarrolló ampliamente el campo del “Aprendizaje de Máquina” (Machine Learning) entendido como una especialización de la Inteligencia Artificial que utiliza algoritmos que aprenden de los datos e identificando distintos tipos de aprendizaje (supervisado, no supervisado, por refuerzo) y “Aprendizaje profundo” (Deep Learning) como un sub campo del Aprendizaje de máquina, que utiliza redes neuronales.
Esta sucesión acumulativa tal vez encuentra un punto de inflexión a partir del 2010 cuando se comienza a hablar de “Inteligencia Artificial Generativa” como el conjunto de modelos, algoritmos y programas que ya no intentan reconocer patrones, clasificar o agrupar, sino que se proponen crear contenido original (texto, imágenes, código, audio, video) a partir de instrucciones.
De este modo, sobre 2013, un equipo de investigadores de Google, dirigido por Tomas Mikolov crea Word2vec: un modelo de red neuronal capaz de aprender asociaciones de palabras a partir de un gran corpus de texto basada en el concepto de incrustación o “embedding” entendida como una representación vectorial de palabras o grupos de palabras. Durante este trabajo los investigadores encontraron que palabras similares tenían embeddings similares y también encontraron sorpresivamente y sin demasiadas explicaciones, que los embeddings eran capaces de captar relaciones semánticas. Por ejemplo, resultó que las palabras “perro” y “gato” son mucho más cercanas (en términos vectoriales) que las palabras “perro” y “lápiz”, solo por poner un ejemplo.
Luego, por 2015, Dzmitry Bahdanau y su equipo presentaron el Modelo de Atención, un componente crucial que permite a los modelos manejar de manera efectiva y eficiente las relaciones complejas dentro de los textos de entrada, mejorando significativamente la capacidad para generar texto coherente y relevante.
Desde otra perspectiva, también en 2015, los empresarios Elon Musk y Sam Altman deciden crear la asociación sin fines de lucro denominada OpenAI, con el “objetivo de desarrollar inteligencia artificial de manera segura y beneficiosa para toda la humanidad”
En 2017, un equipo de investigadores de Google dirigido por Ashish Vaswani propone una nueva arquitectura de red denominada: Transformer, basada únicamente en el Mecanismos de Atención y eliminando las redes neuronales recurrentes.
En 2018, también en Google, se desarrolla BERT un modelo de lenguaje que revolucionó el campo del procesamiento del lenguaje natural mediante una arquitectura de transformers bidireccionales, que le permite capturar el contexto de una palabra basándose tanto en las palabras que la preceden como en las que la siguen.
En 2019, OpenAI lanza la versión completa de su modelo de lenguaje GPT-2, entrenado sobre un gran corpus de texto empleando un proceso llamado aprendizaje de “auto-atención”. Durante el entrenamiento, el modelo aprende a predecir la siguiente palabra en una secuencia de texto dada la secuencia anterior.
También en 2019, Elon Musk se retira de OpenAI, quien se reconvierte a una empresa con fin de lucro y recibe una inversión de USD 1000 millones por parte de Microsoft, que aceleran los procesos de desarrollo hasta llegar en 2022 al lanzamiento de ChatGPT, que ha sido considerado el producto tecnológico con la adopción más rápida de la historia, alcanzando los 100 millones de usuarios tan solo dos meses después de su lanzamiento.
Por otra parte, en 2023, la compañía Meta (ex Facebook) lanza LLaMA (Large Language Model Meta AI) con una licencia enunciada como: open source, que permitió a la comunidad de investigación y desarrollo de IA acceder a un modelo de lenguaje avanzado, promoviendo la transparencia y la colaboración en el campo del procesamiento de lenguaje natural y la inteligencia artificial.
De este modo, hoy existen modelos cerrados como GPT-4, Gemini o Claude; y otros más transparentes como Llama, Mistral o Grok. Y seguramente semana a semana irán apareciendo nuevos modelos, nuevos usos, nuevas estrategias.
La AI en la educación
Entonces, no hay irrupción, hay universidades y empresas (más universidades en los primeros años y más empresas en los últimos). Hay estrategias. Hay innovación y conocimiento. ¿Y qué rol cabe para las Universidades e instituciones educativas aquí en Argentina, en la ciudad de Rosario?
En principio, corresponde saber cómo funcionan, cómo fueron entrenados, que empresas u organizaciones o países o grupos están por detrás; que niveles de transparencia u opacidad expresan; que consideraciones legales y éticas se tuvieron en cuenta; que sesgos podrían contener.
Corresponde una toma de posición crítica y creativa. Una interpelación al rol docente. Una interpelación al rol del alumno. Una interpelación consciente, desafiante, positiva y esperanzadora a las nuevas formas de enseñar y a las nuevas formas de aprender.
*Germán Giró es Director de Enesimal SA, Ex Secretario de Modernización de la Municipalidad de Rosario, Ex Presidente del Polo Tecnológico de Rosario, fundador de Tecso Coop.