La expansión del chatbot ChatGPT está causando las primeras reacciones de las autoridades europeas y estadounidenses. La Autoridad Italiana de Protección de Datos ha ordenado con efecto inmediato la restricción del tratamiento de los datos de los usuarios italianos a OpenAI, la empresa estadounidense que desarrolló y gestiona la plataforma ChatGPT. En EEUU, particulares presentaron una denuncia ante un organismo federal para que suspenda la comercialización de estos “modelos lingüisticos a gran escala”.
En Italia, la Autoridad abrió una investigación preliminar. En la medida, se señala la falta de información a los usuarios y a todos aquellos cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base jurídica que justifique la recolección y almacenamiento masivos de datos personales.
ChatGPT, el software de inteligencia artificial conversacional más conocido, capaz de simular y procesar diálogos humanos, sufrió una pérdida de datos (violación de datos) el pasado 20 de marzo en relación con las conversaciones de los usuarios y la información de pago de los abonados.
En la medida, “el Garante de la Privacidad constata la falta de información a los usuarios y a todos aquellos cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base legal que justifique la recolección y almacenamiento masivo de datos personales con el fin de “entrenar” los algoritmos subyacentes al funcionamiento de la plataforma. Además, como atestiguan las verificaciones efectuadas, la información facilitada por ChatGPT no siempre se corresponde con los datos reales, lo que da lugar a un tratamiento inexacto de los datos personales”.
Por último, a pesar de que, según los términos publicados por OpenAI, el servicio está dirigido a mayores de 13 años, la Autoridad señala que la ausencia de filtro alguno para verificar la edad de los usuarios expone a los menores a respuestas totalmente inadecuadas respecto a su nivel de desarrollo y autoconocimiento. OpenAI, que no tiene oficinas en la Unión Europea pero ha designado un representante para el espacio europeo, debe comunicar en un plazo de 20 días las medidas que ha adoptado para dar cumplimiento a la orden de la Autoridad Italiana de Protección de Datos, so pena de una multa de hasta 20 millones de euros o hasta el 4% del volumen de negocios anual global de la empresa.
En EEUU, en tanto, OpenAI se enfrenta a una denuncia ante la Comisión Federal de Comercio. Fue presentada por la asociación de investigación sin ánimo de lucro Center for AI and Digital Policy y pide al organismo estadounidense que obligue a OpenAI a “suspender la implantación comercial de modelos lingüísticos a gran escala” como ChatGpt. La asociación califica Gpt-4, la última versión del software, de “sesgada, engañosa y un riesgo para la privacidad y la seguridad pública”.
ChatGPT5
Pero mientras tanto, los desarrollos de ChatGpt no se detienen. En los próximos meses podría llegar a ser indistinguible de un ser humano adulto con la actualización número 5. El proyecto ChatGpt-5 fue desvelado por el desarrollador Siqi Chen, quien dijo en Twitter que se había enterado de que la nueva versión saldría el próximo invierno (boreal), y que debería alcanzar el AGI, acrónimo de inteligencia general artificial, es decir, tener la capacidad de pensar y actuar exactamente como una persona. Hablar con ChatGpt-5 dentro de unos meses, podría parecerse mucho más a hablar con un humano adulto, cosa que hoy no ocurre con su precedente.
¿Cómo distinguir lo real de lo falso? “Ya hoy es muy difícil. Tenemos que aceptar que vivimos en un mundo falsificado y cada vez más fácil de falsificar, ahora basta con poder describir una escena para verla realizada. Así que tenemos que aprender a descodificar esta nueva realidad y analizar las noticias antes de compartirlas en la red. En esto creo que la escuela debe aportar su granito de arena”, es la opinión de Vincenzo Cosenza, experto en innovación y autor del blog Vincos.