En tiempos donde la inteligencia artificial (IA) avanza a velocidades inéditas, surge con fuerza la pregunta del historiador Yuval Noah Harari: "¿Quién controla nuestros datos?". Pero esta interrogante ya no refiere únicamente a información convencional, sino a algo aún más íntimo y profundo: nuestros pensamientos.
La rápida convergencia entre IA y neurotecnología ha desplazado la frontera de lo privado, poniendo en juego nuestra privacidad mental, identidad personal, igualdad cognitiva y, especialmente, la libertad misma. En este escenario emergen los neuroderechos, entendidos como derechos humanos específicos que buscan proteger la mente humana frente a tecnologías capaces de leer, interpretar e incluso influir en nuestra actividad cerebral. Estos derechos incluyen, principalmente, la privacidad mental, la identidad personal, la igualdad en el acceso a mejoras cognitivas y la protección del libre albedrío.
El neurobiólogo Rafael Yuste, profesor en la Universidad de Columbia, explica que la neurotecnología comprende métodos o dispositivos eléctricos, ópticos, magnéticos, acústicos o químicos diseñados específicamente para medir o modificar la actividad del cerebro. El cerebro, señala Yuste, es el generador fundamental de nuestras capacidades mentales y cognitivas, como los pensamientos, memorias, percepciones, emociones y decisiones. Dado que la mente emerge de la actividad cerebral, la neurotecnología tiene el potencial de descifrar e influir en nuestras experiencias más íntimas, desde lo consciente hasta lo subconsciente.
En 2017, un grupo interdisciplinario liderado por el propio profesor Yuste, conocido como el "Grupo de Morningside", propuso la creación de nuevos derechos humanos llamados neuroderechos o derechos cerebrales. Estos derechos buscan proteger cinco áreas fundamentales: privacidad mental, libre albedrío, identidad personal, acceso equitativo a neurotecnologías de aumentación y protección contra los sesgos algorítmicos. Su propuesta, publicada en la revista Nature, ha impulsado un debate internacional significativo. Chile, por ejemplo, adoptó estos derechos a nivel constitucional y legislativo, mientras que organismos internacionales como la Comisión Europea, el Parlamento Europeo, la Organización de Estados Americanos y las Naciones Unidas han comenzado a explorar seriamente su implementación.
En Argentina, la discusión en torno a la protección de datos personales e inteligencia artificial se encuentra en una encrucijada fundamental. La Ley de Protección de Datos Personales (Ley 25.326), vigente desde hace más de dos décadas, evidencia la necesidad de adaptarse a las nuevas realidades tecnológicas. Si bien establece principios fundamentales como el consentimiento informado, la protección de datos sensibles y la seguridad en el manejo de información personal, requiere una actualización adecuada para enfrentar las complejidades planteadas por la IA y las neurotecnologías.
Recientemente, diversos proyectos de reforma han sido presentados en el Congreso argentino con el propósito de modernizar la Ley 25.326. Entre las modificaciones propuestas se destaca el reconocimiento explícito del derecho a no ser sometido a decisiones algorítmicas totalmente automatizadas, garantizando siempre una revisión humana efectiva. Estas iniciativas buscan también regular el uso específico de tecnologías sensibles como el reconocimiento facial en seguridad pública. No obstante, la pregunta sigue vigente: ¿Basta actualizar esta ley o necesitamos un marco específico y amplio para regular integralmente la inteligencia artificial?
Países y regiones enteras avanzan ya en esta dirección, ofreciendo distintas visiones sobre cómo enfrentar este desafío jurídico. La Unión Europea ha tomado la iniciativa con su Ley de Inteligencia Artificial (AI Act), una normativa pionera que regula la IA según niveles de riesgo, prohibiendo aplicaciones consideradas inadmisibles, como la manipulación subliminal de personas o los sistemas de puntuación social, y estableciendo requisitos estrictos para las tecnologías clasificadas como de alto riesgo. Esta ley ha generado un efecto global que ha inspirado regulaciones en diversas partes del mundo, incluida América Latina.
Estados Unidos, en cambio, carece aún de una normativa federal general, optando por un modelo fragmentado, basado en regulaciones estatales y principios éticos no vinculantes. Japón, por su parte, implementó recientemente un marco legal más flexible, centrado en el desarrollo seguro de la IA sin imponer sanciones directas específicas, confiando más en recomendaciones y guías prácticas.
En la región, Chile y Brasil han avanzado con propuestas distintivas. Chile es pionero global en la constitucionalización de los neuroderechos, reconociendo explícitamente la necesidad de proteger la integridad mental y la privacidad cerebral en su Carta Magna. Brasil, entretanto, debate intensamente un marco regulatorio inspirado en la legislación europea, aunque adaptado a su realidad federal y multisectorial.
Este contexto internacional evidencia claramente que la regulación efectiva de la inteligencia artificial y los neuroderechos requiere ir más allá de la mera actualización de leyes existentes. La velocidad del progreso tecnológico siempre aventaja al derecho positivo, obligando a diseñar mecanismos regulatorios innovadores. Aquí surge la propuesta de los llamados "sandbox regulatorios", entornos controlados donde expertos en neurociencia, derecho, ética e ingeniería evalúan en tiempo real la aplicación de estas tecnologías, generando regulaciones adaptativas basadas en evidencia empírica.
Desde la perspectiva ética, el desafío es monumental. El riesgo más preocupante no radica en que una máquina nos obligue explícitamente a actuar contra nuestra voluntad, sino en la posibilidad de que moldee sutilmente nuestra voluntad desde dentro, llevando a la pérdida gradual y silenciosa del libre albedrío. La amenaza de discriminación neurotecnológica, manipulación emocional y control cognitivo es real y exige respuestas claras y efectivas desde el derecho.
Argentina, consciente de estos desafíos emergentes, ha comenzado a debatir sobre neuroderechos en ámbitos legislativos. Aunque estas propuestas aún no se han materializado plenamente, representan un paso significativo hacia el reconocimiento de la mente como objeto prioritario de protección jurídica.
En definitiva, la relación entre neuroderechos, inteligencia artificial y protección de datos debe entenderse como un ecosistema integral, donde la actualización normativa, la adopción de regulaciones específicas y una aproximación ética interdisciplinaria se complementan. En esta era marcada por la revolución tecnológica, la construcción de una gobernanza dinámica y preventiva, que priorice lo humano y salvaguarde nuestra autonomía e identidad, es no solo urgente, sino vital. La pregunta inicial, sobre quién controla nuestros pensamientos, reclama una respuesta jurídica clara antes de que sea demasiado tarde para actuar.