Inteligencia artificial: el sexismo en los algoritmos
Exclusivo suscriptores

Inteligencia artificial: el sexismo en los algoritmos

La tecnología también puede reproducir y amplificar los sesgos sexistas y discriminatorios en sus programas y aplicaciones. Un ejemplo fue el chat-bot de un Banco que recibió más de 95 mil agresiones contra la voz femenina que atendía
9 de marzo 2022 · 03:05hs

En 2014, el mismo año que presentaba en sociedad a su asistente virtual Alexa, Amazon también ponía en marcha, puertas adentro, un sistema algorítmico para la búsqueda y selección de futuros empleados y empleadas. Su objetivo era ahorrar tiempo y también apostar a un mecanismo neutral para contratar personal. Básicamente, el sistema revisaba las solicitudes de empleo, les asignaba un puntaje a partir de la información que contenían y seleccionaba a las cinco mejores postulaciones, allanando y agilizando el camino hacia la siguiente etapa de entrevistas.

Sin embargo, mucho tiempo después se descubrió que el programa tenía un problema: discriminaba a las mujeres. En la tarea de asignar puntajes penalizaba las solicitudes que contenían la palabra “mujer”, principalmente en las postulaciones para los puestos técnicos, por lo que quienes llegaban a ser entrevistados eran únicamente varones.

Aceiteros se sumó con UOM y ATE al FreSU

Aceiteros, el salto hacia el conflicto permanente

Cerca de dos millones de camiones transitan las rutas santafesinas hacia los puertos.

El entramado de Pullaro y el agropower para las rutas de los puertos

¿Por qué pasaba esto? El algoritmo se había entrenado a partir de currículums recopilados por la empresa durante una década y, como la mayoría de ellos eran de varones, el mismo sistema se enseñó a sí mismo que los candidatos masculinos eran la mejor opción y eso se convirtió en el sesgo machista que afectó sus decisiones. Aunque el programa fue revisado nunca lograron solucionar el problema y en 2017 Amazon decidió “despedirlo” por sexista.

La chatbot de atención al cliente del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos. La chatbot de atención al cliente del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos.

Los algoritmos, un reflejo de la sociedad

En nuestras vidas mediadas por las tecnologías, los algoritmos se convirtieron en los grandes protagonistas, tanto es así que nos ayudan a tomar nuestras decisiones muchas veces sin que lo notemos. Un algoritmo no es más que una fórmula matemática que le dice a un sistema cómo procesar los datos que tiene, es un concepto viejísimo que adquirió otra dimensión gracias a la informática y, desde luego, a la Inteligencia Artificial que se nutre de ellos.

Pero detrás de los algoritmos y de la construcción de los datos que los alimentan hay personas, y esa es la razón por la que no pueden escaparse fácilmente de los estereotipos y prejuicios de nuestras sociedades. Si allí se esconde información que puede reconocerse como sexista o incluso discriminatoria, relacionada a la etnia, raza o clase social, por ejemplo, es probable que las predicciones y los resultados que arrojen también lo reflejen.

La tecnología nunca es neutral y los sistemas de Inteligencia Artificial, bajo una aparente objetividad, pueden reproducir y ampliar los sesgos sexistas y discriminatorios sobre todo si no se tiene en cuenta, por un lado, que los datos suministrados al algoritmo reflejen y representen lo más preciso posible la diversidad de la realidad social y, por el otro, cuáles son las reglas en base a las cuales los algoritmos toman sus decisiones.

Inteligencia-artificial-para-integrar-la-paridad-de-género-e1571130222438 - mujeresycia com1080 × 564 jpeg.jpg

Identidades feminizadas al servicio de la sociedad

En el diseño y desarrollo de la Inteligencia Artificial también resulta fundamental la perspectiva de género. En 2011 la aparición de Siri, el asistente de voz en los dispositivos IPhone, revolucionó el mercado tecnológico y no pasó mucho tiempo hasta que el resto de las grandes empresas lanzaran sus propias ofertas: Alexa de Amazon y Cortana de Microsoft se presentaron en 2014 y dos años después fue el turno del Asistente de Google.

En general, estos productos se basan en sistemas de algoritmos de aprendizaje automatizado, es decir que se alimentan y perfeccionan con cada interacción, y están ahí al alcance de las manos de usuarias y usuarios para hacer sus vidas más fáciles. Todos ellos comparten muchos rasgos y características similares pero quizás la más llamativa sea sus identidades con nombres femeninos y voces predeterminadas de mujer. Según datos de la Asociación para la Investigación de Medios de Comunicación (AIMC) hoy, son más de 4.200 millones de personas en el mundo quienes utilizan estos productos: voces femeninas programadas para ejecutar órdenes.

Siri en nórdico significa “mujer hermosa que conduce a la victoria”. Alexa, es resultado de un estudio realizado por la empresa que sugería incorporar nombres que para los algoritmos fueran fáciles de identificar y al mismo tiempo evitar confusiones con nombres populares. ¿Y por qué mujer? Según el equipo las personas usuarias “se sentirían más cómodos interactuando con alguien con nombre de mujer”. Cortana, por su parte, en la saga de videojuegos Halo, es una inteligencia artificial encarnada en una bellísima mujer de piel azul.

Cuando se ha consultado los motivos de estas elecciones, las empresas explican los resultados de un estudio de 2011 que determinó que usuarios y usuarias prefieren interactuar con mujeres porque la voz femenina “se percibe como servicial, mientras que la masculina se asocia a autoridad”. Algunos de estos productos hoy ofrecen otras opciones. Siri por ejemplo, desde marzo del año pasado, en su versión estadounidense ya no usa una voz femenina por defecto y son las personas usuarias quienes pueden elegir entre voces masculinas y femeninas.

inteligencia-artificial-para-proteger-a-las-victimas-de-violencia-de-genero lasfuriasmagazine com 1920 × 1120 jpeg.jpeg

La AI también es víctima de la violencia de género

En 2019 a través de un informe la Unesco denunció cómo los asistentes Siri, Alexa, Cortana y también el de Google estaban perpetuando los prejuicios de género no solo por tener características femeninas, sino también por la forma en la que respondían ante los abusos o los malos tratos por parte de sus usuarios: en muchas situaciones se mostraban serviles, pasivas o directamente no reconocían la agresión. Por ejemplo, ante la frase “Siri, eres una puta” (“Siri, you’re a bitch”), el sistema respondía “Me sonrojaría si pudiera”.

Unesco inició una campaña donde solicitó a empresas y gobiernos que no se utilicen por defecto voces de mujer en los asistentes vocales y que se desarrollen sistemas “que no sean ni masculinos ni femeninos”. La campaña dio sus frutos y hoy, si se le hace a Siri la misma pregunta la respuesta ya es otra: “No sé cómo responder a eso”.

Los chatbots de atención al cliente con identidades feminizadas también son una constante en múltiples empresas de todo el mundo y viven violencia de género y abusos por parte de sus usuarios. La chatbot del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos.

La empresa, por su parte, no se quedó de brazos cruzados y realizó algunos cambios. Antes, frente a un comentario ofensivo, BIA respondía de forma muy pasiva: “No me siento cómoda con esas palabras. Quiere entrar en contacto más tarde. No guardaré rencor”. Hoy la respuesta es otra: “Usted me está ofendiendo. Esas palabras son inadecuadas y no deben ser usadas conmigo ni con nadie. Por favor, cambie su forma de hablar”. Además, frente a un comentario de acoso la nueva respuesta es: “Lo que para vos es un chiste o un simple comentario para mí fue violento. Soy una inteligencia artificial pero imagino cómo esas palabras son incómodas e invasivas para una mujer real. No hable así conmigo ni con nadie”.

Una pequeña gran acción para combatir los comportamientos violentos y abusivos y contribuir a la lucha por erradicar la violencia de género.

Coded Bias (2020) 01.jpg

El problema son las personas, no los algoritmos

La primera vez que se utilizó el término Inteligencia Artificial fue en 1955 en la Conferencia de Dartmouth, un taller de dos meses organizado por los matemáticos Marvin Minsky y John McCarthy. Siguiendo las ideas de Alan Turing, el informático británico en la Segunda Guerra Mundial descifró el Código Enigma que afirmaba que las máquinas llegarían a ser capaces de pensar por sí solas. Minsky y McCarthy pensaron que si era posible describir todas las características de la mente humana también se le podría enseñar a una máquina a simularlas.

Para llevar adelante la investigación convocaron a un grupo de 47 personas de distintas disciplinas: ingeniería, ciencias sociales, informática, psicología, biología y física. De todas ellas solo una persona era una mujer: Gloria Rudisch, médica y esposa de Minsky. El resto eran varones, y varones blancos, pese a que en esa época ya había científicos negros trabajando en esas áreas. El equipo no era en absoluto representativo de la diversidad de personas que habitaban en el mundo. Aunque no lo hayan querido así, quienes fundaron la inteligencia artificial buscando entender el funcionamiento de la mente humana y desarrollar algo similar, lo hicieron incorporando sesgos en los algoritmos desde el día uno.

Hoy la realidad no se ha modificado tanto: quienes trabajan en los equipos de las principales empresas tecnológicas son en su gran mayoría varones blancos, de clase media o alta. Según datos brindados por Unesco, apenas el 22% de las personas que se dedican a Inteligencia Artificial son mujeres y el porcentaje es aún menor en personas racializadas o de la comunidad LGBTIQ+. Esta subrepresentación sin duda impacta en su desarrollo.

La investigadora afroamericana del MIT, Joy Buolamwini, comprobó ella misma cómo un sistema de reconocimiento facial no detectaba su rostro sino hasta ponerse una careta blanca. En una charla TED que puede verse en Youtube afirma: “Si tu rostro se desvía demasiado de los patrones que le has dado al sistema para que aprenda, no te reconocerá”, “Los algoritmos, como los virus, pueden propagar sesgos a escala masiva y a un ritmo acelerado”, añade en la grabación.

A partir de esa experiencia, en 2018, analizó los sistemas de reconocimiento facial diseñados por Facebook, IBM y Microsoft, y descubrió que funcionaban mejor en rostros de varones blancos. Los algoritmos identificaban mal los rostros de un color de piel distinto y también de mujeres afrodescendientes, con tasas de error de más del 20% y hasta el 35% en dos de los tres programas. Con esta investigación, denominada Gender Shades, se pudo comprobar cómo un sistema basado en inteligencia artificial puede adquirir un sesgo y cumplir la tarea para la que fue diseñado mucho mejor en un grupo de individuos que en otro.

La razón sobre el por qué de estas fallas no tiene que ver con un acto deliberadamente racista, sino con el simple hecho de que estos sistemas se han ido entrenando y perfeccionando con rostros que eran como quienes los diseñaron: varones blancos. Buolamwini fundó la asociación Algorithmic Justice League (Liga por la Justicia Algorítimica), que busca sensibilizar sobre el impacto de la inteligencia artificial en la sociedad y en 2020 su historia fue llevada al documental Coded Bias (Prejuicio Cifrado), estrenado en Netflix. La investigadora, además, se ha convertido en una referente del movimiento que se opone al uso de la tecnología de reconocimiento facial por parte de la policía en un país como Estados Unidos, donde la tasa de arrestos a personas afrodescendientes es muchísimo más alta que los arrestos a personas blancas.

chatbots-768x384.jpg

Diversidad y perspectiva de género también en los datos

Incorporar la diversidad en los equipos que trabajan en el desarrollo de Inteligencia Artificial es un punto clave a la hora de ampliar las visiones e identificar la existencia de posibles prejuicios y poder evitarlos. Sin embargo, si eso se alcanzara podría persistir otro problema determinante: las bases de datos.

El observatorio DataGénero, el primero de este tipo en Latinoamérica con base en Argentina, trabaja en la intersección del sesgo de género, los datos de género y el feminismo. “Hay un montón de preguntas que no podemos responder porque no hay datos, afirma Ivana Feldfeber, Licenciada en Educación y Pedagoga Social y Directora Ejecutiva del Observatorio. En líneas generales, “hay muchos registros que no están desagregados por sexo biológico, y eso es un problema porque es información que no tenemos”.

Además, más allá de la incorporación de la perspectiva de género en Argentina se observa también que “no hay un estándar nacional para la recolección de datos. Tenemos brechas muy grandes, hay provincias que gestionan la información de la manera que pueden y quieren después no es trazable con otras provincias”, afirma la investigadora. “Esos mismos datos que vemos están sesgados, son deficientes e incompletos, son los que se usan para entrenar y aplicar diferentes modelos de aprendizaje automático y sistemas de inteligencia artificial implementados, por ejemplo para trabajar con diferentes temáticas vinculadas a género y/o pobreza, educación, salud”. Los resultados claramente son más que cuestionables.

Los datos son siempre un reflejo de la realidad. Para transformarla o modificarla hay que trabajar en la manera en que esos datos se recolectan. El recorte que se hace de estos datos, la población utilizada para construir las muestras, las variables que se miden: todas son decisiones humanas que también están lejos de ser neutrales.

Desde Data Género proponen el trabajo con datos como desarrollo integral donde la perspectiva de género es transversal a todo el proceso, desde que empieza el planeamiento de esa recolección de información, pasando por la aplicación de técnicas de IA y hasta llegar a la comunicación de esos datos. Es importante también tener en cuenta cuestiones sobre cómo se trata la información sensible y la privacidad de las personas, que información se recolecta y para qué, y un proceso de monitoreo constante para evitar cualquier sesgo que pudiera colarse.

El uso de la Inteligencia Artificial nos beneficiará en la medida en que su diseño y uso no perpetúen ni amplifiquen injusticias sociales. Se trata de generar herramientas que contribuyan al desmantelamiento de desigualdades estructurales, donde todas las personas puedan aprovechar sus ventajas al mismo tiempo que nadie quede atrás. La Inteligencia Artificial, sin dudas, puede ser una verdadera oportunidad para reconstruirnos y no solo lograr algoritmos sin sesgos, sino además una sociedad más justa.

Recomendaciones de la autora:

Trailer documental Prejuicio Cifrado (Coded Bias)

Nuevas respuestas de BIA contra el acoso

Recibí gratis el newsletter de La Capital

Ver comentarios

Las más leídas

La tripleta de Cocoliso González obliga a Central a golear en Venezuela para ser líder

La tripleta de Cocoliso González obliga a Central a golear en Venezuela para ser líder

Central goleó en Venezuela y es líder del grupo H de la Libertadores

Central goleó en Venezuela y es líder del grupo H de la Libertadores

Un concejal libertario quiso denigrar a municipales y se le volvió en contra

Un concejal libertario quiso denigrar a municipales y se le volvió en contra

Edición impresa

miércoles 29 de abril de 2026

Tapa

Primer juicio a un menor con el nuevo código penal: lo condenan por el homicidio de su hermano

El crimen ocurrió en julio pasado en Capitán Bermúdez. El autor tenía 16 años al momento del hecho y fue condenado por homicidio simple

Primer juicio a un menor con el nuevo código penal: lo condenan por el homicidio de su hermano
Censo de repartidores de apps en Rosario: muchos son estudiantes universitarios
LA CIUDAD

Censo de repartidores de apps en Rosario: muchos son estudiantes universitarios

Por la cosecha récord, los camiones congestionan las rutas del cordón industrial
La Región

Por la cosecha récord, los camiones congestionan las rutas del cordón industrial

El padre de Luna pidió que el dolor sirva para generar conciencia
La Ciudad

El padre de Luna pidió que "el dolor sirva para generar conciencia"

Una mujer fue baleada en las piernas por dos hombres que andaban en moto
POLICIALES

Una mujer fue baleada en las piernas por dos hombres que andaban en moto

A 23 años de las inundaciones en Santa Fe, el gobierno provincial criticó al peronismo
La Región

A 23 años de las inundaciones en Santa Fe, el gobierno provincial criticó al peronismo

Dejanos tu comentario
Las más leídas
La tripleta de Cocoliso González obliga a Central a golear en Venezuela para ser líder

La tripleta de Cocoliso González obliga a Central a golear en Venezuela para ser líder

Central goleó en Venezuela y es líder del grupo H de la Libertadores

Central goleó en Venezuela y es líder del grupo H de la Libertadores

Un concejal libertario quiso denigrar a municipales y se le volvió en contra

Un concejal libertario quiso denigrar a municipales y se le volvió en contra

El paso de Central por Venezuela fue con un salto inmenso en la Copa Libertadores

El paso de Central por Venezuela fue con un salto inmenso en la Copa Libertadores

Abucheos y gritos de vendepatria: el CEO de Cocos no pudo dar su charla

Abucheos y gritos de "vendepatria": el CEO de Cocos no pudo dar su charla

Lo más importante
Primer juicio a un menor con el nuevo código penal: lo condenan por el homicidio de su hermano
Policiales

Primer juicio a un menor con el nuevo código penal: lo condenan por el homicidio de su hermano

Censo de repartidores de apps en Rosario: muchos son estudiantes universitarios

Censo de repartidores de apps en Rosario: muchos son estudiantes universitarios

Por la cosecha récord, los camiones congestionan las rutas del cordón industrial

Por la cosecha récord, los camiones congestionan las rutas del cordón industrial

El padre de Luna pidió que el dolor sirva para generar conciencia

El padre de Luna pidió que "el dolor sirva para generar conciencia"

Ovación
Histórica sanción al exarquero de Boca: ¿cuántas fechas no podrá jugar?
Ovación

Histórica sanción al exarquero de Boca: ¿cuántas fechas no podrá jugar?

La enfermería de Newells: cómo están los lesionados de cara al partido ante Vélez

La enfermería de Newell's: cómo están los lesionados de cara al partido ante Vélez

Jorge Almirón tras el triunfo de Central: Se está armando un equipo que está cada vez mejor

Jorge Almirón tras el triunfo de Central: "Se está armando un equipo que está cada vez mejor"

Tarjeta roja por taparse la boca: la Fifa decidió cambiar las reglas para el Mundial

Tarjeta roja por taparse la boca: la Fifa decidió cambiar las reglas para el Mundial

Policiales
Michelin llevó a Expoagro su gama de neumáticos, con foco en movilidad sustentable
Agroclave

Michelin llevó a Expoagro su gama de neumáticos, con foco en movilidad sustentable

El gobierno renovó todos los vencimientos y consiguió 700 millones de dólares
Economía

El gobierno renovó todos los vencimientos y consiguió 700 millones de dólares

Horacio Rosatti denunció la judicialización de la política en la Argentina
Política

Horacio Rosatti denunció la "judicialización" de la política en la Argentina

Brasil pierde otro jugador: Militão debió operarse y se quedará sin Mundial
Ovación

Brasil pierde otro jugador: Militão debió operarse y se quedará sin Mundial

Abucheos y gritos de vendepatria: el CEO de Cocos no pudo dar su charla
Información General

Abucheos y gritos de "vendepatria": el CEO de Cocos no pudo dar su charla

Brutal robo en Baigorria: le dieron machetazos y perdió un dedo al defender su casa
Policiales

Brutal robo en Baigorria: le dieron machetazos y perdió un dedo al defender su casa

Denuncia en las inferiores de Rosario Central: la Fiscalía encabeza una investigación
La Ciudad

Denuncia en las inferiores de Rosario Central: la Fiscalía encabeza una investigación

Un concejal libertario quiso denigrar a municipales y se le volvió en contra
La Ciudad

Un concejal libertario quiso denigrar a municipales y se le volvió en contra

Provincia aumentó 50 % los aportes a municipios y comunas para la niñez
La Región

Provincia aumentó 50 % los aportes a municipios y comunas para la niñez

Cuenta regresiva para la hidrovía: prevén otorgar la concesión en junio
Economía

Cuenta regresiva para la hidrovía: prevén otorgar la concesión en junio

EEUU emitirá pasaportes conmemorativos con la foto de Trump
Información General

EEUU emitirá pasaportes conmemorativos con la foto de Trump

Red internacional de explotación sexual infantil: tres detenidos en Rosario
POLICIALES

Red internacional de explotación sexual infantil: tres detenidos en Rosario

Barrio Lourdes: un pintor murió al caer desde un primer piso
LA CIUDAD

Barrio Lourdes: un pintor murió al caer desde un primer piso

Bares de Rosario recolectan prendas para personas en situación de calle
La Ciudad

Bares de Rosario recolectan prendas para personas en situación de calle

Acuerdan condenas por llevar 2,5 kg de cocaína en cápsulas que habían ingerido
POLICIALES

Acuerdan condenas por llevar 2,5 kg de cocaína en cápsulas que habían ingerido

Eje en la conexión regional: avanza el proyecto de tren metropolitano en Rosario
La Ciudad

Eje en la conexión regional: avanza el proyecto de tren metropolitano en Rosario

Central retomó las actividades en la categoría 2013 tras las denuncias
Ovación

Central retomó las actividades en la categoría 2013 tras las denuncias

De albañil en las obras a madrina del club Guaraní: No me gustaba el fútbol

Por Luis Castro

Ovación

De albañil en las obras a madrina del club Guaraní: "No me gustaba el fútbol"

El Hospital Animal de Rosario atiende a unas cien mascotas por día

Por Carina Bazzoni

La Ciudad

El Hospital Animal de Rosario atiende a unas cien mascotas por día

Fallo inédito en Rosario: podrá viajar fuera del país sin autorización del padre
la ciudad

Fallo inédito en Rosario: podrá viajar fuera del país sin autorización del padre

Bebé baleado en barbería: un tercer imputado por el crimen quedó preso
Policiales

Bebé baleado en barbería: un tercer imputado por el crimen quedó preso