Abogados argentinos hicieron una presentación judicial contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por la utilización de datos personales para el entrenamiento de su inteligencia artificial (IA).
Los abogados denunciantes afirmaron que el país enfrenta una situación crítica en la protección de datos personales.
Abogados argentinos hicieron una presentación judicial contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por la utilización de datos personales para el entrenamiento de su inteligencia artificial (IA).
Según publicó Ciberseguridad Latam, los abogados especialistas en protección de datos personales Facundo Malaureille y Daniel Monastersky hicieron una denuncia de 22 puntos en los que solicitan a Meta Argentina explicaciones sobre sus prácticas de recolección y uso de datos personales.
La presentación judicial reclama detalles sobre la actualización de la política de privacidad y evidencia del consentimiento de los usuarios, una Evaluación de Análisis de Impacto (PIA, por sus siglas en inglés) conforme a las guías argentinas, explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad y aclaraciones sobre cómo se previene la reidentificación de datos anonimizados.
>> Leer más: No te dejes engañar: no se puede desactivar el chatbot de inteligencia artificial de Whatsapp
También solicitaron información sobre el manejo de metadatos y datos sensibles en el proceso de anonimización, y detalles sobre las políticas de retención y destrucción de datos, además de pedirle a la Agencia de Acceso a la Información Pública (Aaip) realizar una auditoría independiente de los procesos de Meta en el país y establecer directrices sobre los estándares de anonimización aceptables en Argentina, en el marco de sus facultades como autoridad de aplicación de la ley 25.326.
“Con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA“, comentó Facundo Malaureille, quien puso de relieve que “es crucial que no nos quedemos atrás en la protección de los derechos digitales de nuestros ciudadanos“.
Monastersky agregó: “Esta denuncia busca establecer un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en nuestro país”.
Ambos firmantes sostienen que “la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grande volúmenes de información personal”.
Instaron además a diputados y senadores a tomar conciencia de la situación crítica en la que se encuentra la protección de datos personales en el país.
El texto de la presentación advierte que "la falta de acción legislativa al no tratar el proyecto de reforma de la ley 25.326 deja a los ciudadanos argentinos en una posición vulnerable, expuestos a las decisiones unilaterales de corporaciones tecnológicas de gran envergadura, como Meta".
La corporación global Meta Platforms recibió desde junio quejas en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España por los cambios propuestos en la forma en que utiliza datos personales para entrenar sus modelos de inteligencia artificial sin obtener consentimiento.
Los reclamos apuntan a que los recientes cambios en la política de privacidad de Meta, que entraron en vigor el 26 de junio, permitirían a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para su tecnología de inteligencia artificial.
Debido a los cambios inminentes, el Centro Europeo de Derechos Digitales (Noyb) pidió a las autoridades de protección de datos en los 11 países que inicien una revisión urgente.
Según una declaración de Noyb, la recientemente actualizada política de privacidad de Meta cita un interés legítimo en usar los datos de los usuarios para entrenar y desarrollar sus modelos de IA generativa y otras herramientas de inteligencia artificial, las cuales pueden ser compartidas con terceros.
El cambio de política impacta a millones de usuarios europeos, impidiéndoles eliminar sus datos una vez que están en el sistema.
Noyb presentó previamente varias quejas contra Meta y otras grandes empresas tecnológicas por presuntas violaciones del Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que amenaza con multas de hasta el 4% de la facturación global total de una empresa por violaciones.
Brasil, en tanto, obligó a Meta a suspender el funcionamiento de su AI, impuso una eventual multa de 50 mil reales diarios por incumplimiento, y solicitó una sanción de 1.733 millones de reales contra WhatsApp por supuesta violación de privacidad.