Quienes nos dedicamos a la epistemología solemos lidiar con la idea de que nuestros temas tienen poca vinculación con los asuntos de todos los días y que por eso mismo son de escaso interés para la gente. ¡No en este caso! La inteligencia artificial es un fenómeno absolutamente presente en nuestras realidades diarias. Más aún, circula la fatalista idea de que año tras año esta presencia se incrementará y que la IA irá cobrando un mayor protagonismo hasta el punto de acabar rigiendo la cultura y el destino todo de la humanidad. “La IA progresa exponencialmente; no hay alternativa posible; el conocimiento quedará en manos de la máquina”, se postula en medios de comunicación masivos, páginas web, redes sociales e incluso desde sectores de la academia, “hay que adaptarse o perecer”.
Los ingenieros de datos; programadores, técnicos de la información y empresarios desarrolladores de IA son quienes generan y entrenan a esta rama especial de la informática que vendría a reemplazar a las funciones más típicamente humanas: pensar, aprender, resolver problemas, crear y eventualmente hasta sentir; y son también ellos quienes, arguyendo la superioridad de la máquina y apoyados por influyentes millonarios gurúes de la tecnología, implementan la IA, celebran sus logros y profetizan lo que va a pasar: “las máquinas escribirán mejor que cualquier escritor humano”; “las carreras universitarias están condenadas a desaparecer; médicos y abogados serán los primeros en extinguirse”. A veces, es la propia IA la que sentencia: “el 90 por ciento de los trabajos creativos serán reemplazados en los próximos cinco años”. Estas ideas son aplaudidas acríticamente y, permítansenos una subjetividad, con cierta secreta satisfacción por quienes siempre se han sentido ajenos a las actividades intelectuales o artísticas y tienen su fe puesta en la doctrina del progreso y en las virtudes de una tecnología supuestamente neutral que nos proveerá herramientas para alcanzar una vida cada vez más fácil.
Si bien los desarrolladores de IA —y la propia IA— se constituyen en voces autorizadas para hablar de los productos que ellos mismos promueven; no deberíamos perder de vista que existe una disciplina científica, y por tanto crítica, cuyo campo de estudio aborda precisamente las problemáticas que atraviesan a la IA: ¿cómo se genera el conocimiento? ¿cómo se lo valida? ¿cómo se lo enmarca históricamente? ¿a qué valores sirve? ¿cuáles son sus implicancias sociales, éticas, ideológicas, económicas y políticas?
Es desde este lugar desde donde ensayaremos tres hipótesis para responder a algunos de estos temas.
1) Resultados por sobre procesos: en cuestión de segundos la IA produce una breve respuesta a una pregunta. Esta forma de conocer centrada exclusivamente en el resultado y que desprecia todo el proceso para llegar a él, es la forma típica que propone la IA. Nosotros la denominamos efectismo cognitivo: el conocimiento queda así reducido a un producto rápido que vendría a satisfacer un requerimiento personal. Con esto, la persona que consulta deja de ser un sujeto reflexivo para convertirse en un consumidor pasivo en procura de una satisfacción inmediata. Al dejar de lado las búsquedas y procesos que son inherentes y no contingentes al acto cognitivo; la persona no sólo se pierde todo el desarrollo intelectivo y, ciertamente, el placer que trae el saber, sino que obtiene un conocimiento necesariamente superficial que ha perdido sus matices y complejidades.
2) Conocimiento externo a la persona: al excluir al ser humano del proceso creativo, la lógica de la IA no es la de la formación, sino la del servicio. Por primera vez en la historia, el conocimiento no pasa a integrar el fondo y el bagaje de la persona, ya que este no se ha incorporado —puesto en el cuerpo—, sino que se convierte en un producto externo. El conocimiento entonces se cosifica, asimilándose a un artículo comercial deshumanizado incapaz de ampliar la experiencia vital y de formar —dar forma— al sujeto. Esto hace que el de la IA sea un saber ex post —siempre viene después—–. Por tanto, es mucho más útil para responder a demandas específicas que para generar preguntas o procesos de reflexión profundos.
3) Conocimiento acrítico: no importa lo disparatada o errónea que sea una idea mientras ésta se pueda criticar. Así fue como la humanidad aprendió a pensar por sí misma alcanzando la mayoría de edad, postulaba Immanuel Kant. Resulta que, en mayor medida que a la observación empírica, le debemos a la disposición mental de criticar nuestras ideas el eje fundante del sistema racional moderno de pensamiento. A propósito, el epistemólogo Karl Popper ejemplificaba que cuando en alguna antigua tribu alguien sugirió que “los truenos que oímos en el cielo se deben a la existencia de un caballo gigante galopando por el firmamento”, no nació la ciencia, pero cuando a esta afirmación se le añadió la pregunta “¿alguien tiene una idea mejor?”; ahí sí fue cuando la ciencia acabó de plantar su monolito fundador.
La ciencia, entonces, tiene mucho más que ver con una actitud mental —predisposición a la crítica— que con la precisión de cálculo. ¿Qué pasaría si abandonáramos esta actitud de vigilancia epistemológica rindiéndonos a la “verdad” de la IA fundamentada en su capacidad de calcular? ¿Qué ocurriría si dejamos de discutir a la máquina? ¿Seguiríamos habitando la mayoría de edad?
La IA no es un martillo
Claro; uno podría servirse de la IA simplemente para consultar una duda que pueda ser resuelta a partir del procesamiento de la información y tomar sus respuestas con sentido instrumental. Esta es la idea que sostiene la doctrina positivista sobre la tecnociencia: “no hay valores implícitos, sino un conocimiento neutral que uno puede, como si de un martillo se tratara, usarlo o no y aplicarlo tanto para el bien como para el mal”. Pero se sabe sobradamente que la cosa es mas compleja; que el conocimiento no puede desligarse de los valores que lo motivan y que detrás de cada novedad técnica, siempre se promueve una visión del mundo. “Ciencia y técnica como ideología” advertía Jürgen Habermas cuando ligaba los tipos de conocimiento existentes a los tipos de interés. Hoy día, por ejemplo, no podríamos optar por desechar el uso de internet, aunque este no sea de nuestro agrado.
Lo ideal sería usar —o no usar—la IA de acuerdo a nuestras necesidades, siendo conscientes de sus supuestos ideológicos: la dinamización de la productividad capitalista a través del resultadismo, la velocidad, el individualismo, la superficialidad y el ahistoricismo del conocimiento. Y, en consecuencia, relativizar sus resultados. El problema es que sólo podríamos hacer tal cosa, si en verdad la IA se tratara de una inocente herramienta; pero, lo sabemos demasiado bien, la IA, como el resto de la tecnología, no es un martillo.
(En la imagen, el gran filósofo prusiano Immanuel Kant)