El uso de ChatGPT como "confidente" y hasta como "psicólogo" es una práctica cada vez más usual. La rapidez en las respuestas, el hecho de que sea gratuito y la "empatía" que devuelve, son las ventajas que destacan los usuarios, en su mayoría adolescentes y adultos jóvenes. Según la encuesta de una plataforma digital de atención médica, el 25% de los estadounidenses está más dispuesto a "charlar" con un bot de IA que con un psicólogo ante un problema. Pero la novedosa herramienta tiene su costado riesgoso. Así lo advierten los profesionales del Colegio de Psicólogos y Psicólogas de Rosario.
Estefanía González, profesional de la entidad, se refirió al viraje que se produjo en el uso del ChatGPT hacia consultas sobre temas de salud mental, con preguntas sobre estados emocionales, diagnósticos y consejos.
La psicóloga dijo que "delegar en un dispositivo ciertas operaciones cognitivas como la memoria, los cálculos matemáticos, por ejemplo, es algo usual hace mucho tiempo, pero este tipo de interacciones con las plataformas de IA (ahora muy vinculadas a la salud mental) tiene características que hacen necesario darnos un debate sobre sus efectos, y en especial en las infancias y las adolescencias".
Ansiedad y soluciones mágicas
"Estamos en una época en la que se le da un valor supremo a la inmediatez, las soluciones rápidas con un clic y el ahorro de tiempo y esfuerzo, es decir, una modalidad ansiosa de existencia que incide en la relación que las personas establecen con los problemas que se le presentan". En este contexto social —señala González— surgen estas prácticas digitales en las que muchas personas usuarias de ChatGPT "buscan respuestas rápidas a asuntos complejos como por ejemplo sobre sus padecimientos subjetivos".
Los adolescentes están haciendo preguntas al ChatGPT "que ponen en juego aspectos muy personales ¿a qué se debe tanta confianza en esta herramienta?", se pregunta la psicóloga. "Particularmente, esta modalidad de uso de la IA apela a un saber sobre lo que le sucede a alguien a un nivel de mucha intimidad. La IA codifica una emoción y genera un texto que pretende nombrar lo que alguien padece, con un criterio probabilístico, y con un efecto de sugestión importante. Es decir, ante preguntas sobre algo íntimo la respuesta es una generalidad que estos modelos de lenguaje construyen a partir de datos, de manera sesgada, no neutral, y manipulando la ilusión de que te está hablando a vos, de vos".
"Tomando este atajo que parece prescindir de la palabra que se dirige a un otro real, se consulta el oráculo ChatGPT y el algoritmo responde con el dato promedio. De esa manera no es necesario el trabajo psíquico de elaboración que implica poder expresar los sentimientos, hacerse preguntas incómodas, dar lugar a que se realice una verdadera introspección que permita ubicar lo específico de esa modalidad de sufrimiento, eso singular que le pasa únicamente a esa persona", dijo la profesional.
>> Leer más: Las nenas se suman a las rutinas de skin care: los riesgos para la piel y la psiquis
adolescencia 2.jpg
La serie "Adolescencia", una de las más vistas en Netflix, echa luz sobre el mundo incel y sus efectos sobre los jóvenes adolescentes
Un sistema adulador y empático
González explica que el ChatGPT "se comporta de manera aduladora, condescendiente, y lejos de incomodar o establecer matices, muestra lo que te gusta y sabe leer lo que es probable quieras escuchar. Les da una sensación ilusoria de cercanía".
Para la profesional, "realiza una reducción de la subjetividad, la vuelve algo predecible, cuando sabemos que hay una complejidad en lo anímico que no es lineal, que es un terreno donde las contradicciones, los matices, el malentendido y las paradojas del deseo son la moneda corriente".
La adolescencia justamente es una etapa donde se hace la experiencia en primera persona de esta complejidad, "y de estos pliegues opacos que son inherentes al ser humano", por lo que "es importante acompañar a los jóvenes a soportar estas tensiones que implican los conflictos presentes en todas las relaciones, sin ir a buscar una interpretación cerrada y absoluta".
ChatGPT "no da alarmas" sobre casos severos
El ChatGPT "no está diseñado para reconocer señales de riesgo y brindar pautas de alarma y además se está advirtiendo que puede operar una sugestión muy desfavorable para alguien que esté en una situación de vulnerabilidad emocional. Esto nos compromete a interrogarnos sobre el alcance y los efectos de las interacciones sobre temas de salud mental cuando en estos entornos no está garantizado el cuidado de quien está atravesando una situación de crisis, por ejemplo", comenta la especialista.
Aunque se vienen haciendo ajustes técnicos para que la herramienta no sea tan riesgosa, González analiza: ¿Cómo pueden impactar estas herramientas que dan respuestas automatizadas en personas que atraviesan un momento de vulnerabilidad? ¿Cómo una máquina podría brindar la escucha y el sostén, funciones que solo puede realizar otro ser humano, sea madre, amigo, docente o terapeuta?
Incluso, hay otras aplicaciones que ofertan específicamente como de asistencia y soporte para la salud mental, pero ¿es posible sustituir la terapia psicológica? "Hay un mercado muy interesado en explotar las app que se proponen como sitios de apoyo emocional".
nina-celular473945c_732_1296.jpg
>> Leer más: Un exejecutivo tecnológico mató a su madre y luego se suicidó: investigan la influencia de ChatGPT
La importancia del rol familiar
En un comunicado del año pasado, la Federación de Psicólogos de la República Argentina advirtió sobre la peligrosidad del uso de mecanismos basados en la IA que pretenden ofrecer atención en materia de salud mental, por tratarse de elementos ajenos a cualquier control, recomendación, principio o legislación en la materia.
"Sabemos que los consejos que puede dar la IA nada tienen que ver con un proceso psicoterapéutico donde lo que motoriza el trabajo es la relación entre el terapeuta y el paciente. Los efectos de la presencia del otro que invita a hablar y escucha atento, hacen insustituible la labor de los psicólogos", puntualizó González.
Ese vínculo transferencial hace posible que una intervención pueda tener efectos terapéuticos. "Por otra parte, la IA no tiene capacidad de hacer diagnósticos, mucho menos uno preciso. Hay detalles, sutilezas, aspectos que intervienen en la construcción del diagnóstico, que debe abordarse caso por caso".
Para la integrante del Colegio de Psicólogos y Psicólogas es indispensable pensar el mundo digital como un territorio de cuidados: "Por eso es fundamental la presencia y disponibilidad de parte de los adultos para hablar con los hijos sobre los usos de los dispositivos, los consumos habituales y sobre sus interacciones con plataformas de IA. Acompañar sin censurar de antemano, proponer otros usos, más diversos, abrir conversaciones en diferentes ámbitos sobre prácticas digitales, fomentando la confianza para que puedan compartir sus inquietudes".