Se llama Take it down ("darlo de baja") y es la nueva plataforma disponible también en español para evitar que las imágenes íntimas de los jóvenes se difundan por Internet. "Anunciamos que Facebook e Instagram son miembros fundadores", dice la directora global de Seguridad, Antigone Davis que aseguró que esta herramienta dificulta la interacción de adultos sospechosos con adolescentes en Instagram. Se trata de un servicio gratuito.
Un dato auspicioso si se tiene en cuenta que en el último trimestre del 2022, Facebook detectó 25,2 millones de contenidos relacionados con peligro infantil y explotación sexual. En el caso de contenido de adultos, la organización StopNCII.org a través de línea de Ayuda de Revenge Porn (RPH), eliminó más de 200.000 imágenes íntimas individuales no consentidas de Internet.
En Argentina, la acción por la que un adulto contacta a una niña, un niño o adolescente a través de una plataforma online para atentar contra su integridad sexual (Grooming) es considerado delito desde 2013. Y la difusión de imágenes íntimas es en Argentina considerada una extorsión por el Código Penal (hay dos proyectos de ley a la espera de tratarse que contemplan la violencia digital: la “Ley Olimpia” y la Ley Belén cuyos nombres recuerdan a víctimas de violencia sexual).
"Que una imagen íntima personal se comparta con otros puede ser aterrador y abrumador, especialmente para los jóvenes. La sensación puede ser aún peor cuando alguien intenta utilizar esas imágenes como amenaza para obtener más imágenes, contactos sexuales o dinero, un delito conocido como sextorsión", dijo Davis quien resaltó así que no se trata solo de no publicar en las redes sino de que no te roben la imagen.
Take it down aporta datos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC-National Center for Missing & Exploited Children) y permite a los jóvenes recuperar el control de sus imágenes íntimas. Las personas pueden ir a TakeltDown.NCMEC.org/es y seguir las instrucciones para presentar un caso que buscará sus imágenes íntimas en las aplicaciones participantes.
Se asigna un código numérico (hash) a la imagen o video de forma privada y directamente desde el dispositivo del reportante. Una vez que envían el hash al NCMEC, empresas como Meta (que dio su apoyo financiero para el diseño) pueden utilizarlo para encontrar copias de la imagen, retirarlas y evitar que el contenido se publique en otras aplicaciones en el futuro (el hash codifica las imágenes o vídeos de forma que ya no se pueden ver, produciendo hashes que son huellas digitales seguras).
Con el lanzamiento de esta nueva plataforma, personas de todas las edades pueden detener la difusión de sus imágenes íntimas en Internet, incluidos:
Adultos preocupados por imágenes suyas tomadas cuando eran menores de 18 años.
Meta no permite contenidos o comportamientos que exploten a jóvenes, incluida la publicación de imágenes íntimas o actividades de sextorsión. Se establece de forma automática para los adolescentes la configuración más privada en Facebook e Instagram, para impedir que adultos que no conocen se conecten con adolescentes en esas aplicaciones. En Instagram, se presentan nuevas funciones para dificultar aún más la interacción entre adultos sospechosos y adolescentes. Ahora, estos adultos ya no podrán ver las cuentas de adolescentes cuando se desplacen por la lista de personas a las que les ha gustado una publicación o cuando miren la lista de seguidores o seguidos de una cuenta. Si un adulto desconocido sigue una cuenta de un adolescente, se le envía al segundo una notificación para que revise y elimine al nuevo seguidor. Y se trabaja con el adolescentes para que revice y personalice su configuración de privacidad.