Estados Unidos y China están intensificando sus esfuerzos para regular las nuevas herramientas de inteligencia artificial. Washington lanzó una consulta pública online, mientras China dio a conocer su propio conjunto de medidas para mantener la IA bajo control, en medio del auge de los chatbots. El más conocido y utilizado a nivel mundial es el estadounidense ChatGPT, pero el del gigante chino Baidu, ErnieBot, fue lanzado el mes pasado y es un éxito entre los usarios chinos. Simultáneamente, el gigante tecnológico chino Alibaba anunció el lanzamiento de su propio chatbot. La aparición de ChatGPT en noviembre pasado causó una verdadera explosión de esta tecnología, por primera vez al alcance del público general y no sólo de grandes empresas u organismos del Estado.
El regulador de Internet de China publicó el martes un borrador de 20 puntos de medidas para gestionar los servicios de IA generativa, incluyendo mandatos para asegurar la precisión y la privacidad, prevenir la discriminación y garantizar la protección de los derechos de propiedad intelectual.
El borrador, que se publica para recibir comentarios del público y que entrará en vigor este año, también exige que los proveedores de IA etiqueten claramente los contenidos generados por IA, establezcan un mecanismo para gestionar las quejas de los usuarios y los sometan a una evaluación de seguridad antes de que estén disponibles públicamente.
Los contenidos generados por IA también deben “reflejar los valores fundamentales del socialismo” y no contener ninguna “subversión del poder del Estado” que pueda llevar al “derrocamiento del sistema socialista en China”, advierte el borrador. La obsesión de Pekín por la seguridad de su régimen “socialista” es la prioridad, también en este terreno.
La normativa china se publicó la misma mañana en que el Departamento de Comercio de EEUU lanzó una petición pública formal de comentarios sobre las medidas “de responsabilidad” de la IA, un primer paso de la administración federal hacia una regulación. Los comentarios públicos se aceptarán durante los próximos 60 días y se utilizarán para ayudar a formular consejos para los responsables políticos sobre cómo abordar el desarrollo de la IA, informa el Wall Street Journal.
El Departamento de Comercio publicó el mes pasado un informe con recomendaciones sobre cómo podría funcionar la supervisión de la IA, destacando la preparación de los recursos humanos, la competitividad y la seguridad nacional como principales prioridades para que los responsables políticos establezcan un marco regulador. El informe señala que “los competidores de Estados Unidos, como China, son conscientes de la importancia de establecer un dominio” en este sector.
Como competidores históricos en tecnología y negocios, EEUU y China están estudiando una mayor supervisión de la IA. Pero el brusco auge de las aplicaciones generativas ha puesto en dificultades a los gobiernos para ejercer algún grado de control. Se calcula que ChatGPT, el chatbot de OpenAI, startup de San Francisco, supera los 100 millones de usuarios. Fue lanzado en noviembre pasado. Las empresas chinas se apuraron a lanzar sus productos. Ernie Bot, de Baidu, se calcula que también ha alcanzado los 100 millones de usuarios. Ernie Bot fue presentado en marzo pasado. Es un modelo de inteligencia artificial conversacional basado en modelos de lenguaje preentrenados, como los otros GPT. Según Louise Matsakis, editora de la publicación especializada Semafor, Ernie Bot está centrado en el mercado chino y tiene “una mayor capacidad de entendimiento del lenguaje chino” que otros modelos. A la vez, el gigante Alibaba lanzó este martes un chatbot para uso interno.
Un coro de voces gubernamentales y empresariales critica los peligros potenciales derivados de esta tecnología, hasta ahora en gran medida no regulada. Líderes tecnológicos como Elon Musk pidieron recientemente una pausa de seis meses en el desarrollo de la IA, afirmando que los laboratorios están en una “carrera descontrolada” para desarrollar sistemas que nadie, ni siquiera sus creadores, puede predecir y controlar. Afirmaron que los laboratorios y los expertos independientes deberían trabajar juntos para implantar protocolos de seguridad compartidos.
Italia prohibió a ChatGPT
El 31 de marzo pasado, Italia se convirtió en el primer país en bloquear al ChatGPT, invocando la ley europea de privacidad. El organismo italiano para la protección de datos señaló que no había ninguna base legal para “la recopilación y el almacenamiento masivo de datos personales con el fin de entrenar a los algoritmos” que practica ChatGPT. Otro motivo es que su dueña, OpenAI, no informa a sus clientes de los datos que recopila. Italia también señaló que, dado que no existe una forma de verificar la edad de los usuarios, la aplicación “expone a los menores a respuestas absolutamente inadecuadas” para su edad. Además, el pasado 20 de marzo hubo un problema de seguridad con ChatGPT, un hecho que puso en riesgo los datos de los usuarios. Europol alertó del uso de ChatGPT para cometer ciberdelincuencia. Italia dio 20 días a OpenAI para demostrar que cumple la ley. En caso contrario el veto italiano se haría permanente.