A National Award-Winning Publication

Sexistas los asistentes de voz

Facebook
Twitter
LinkedIn
Los asistentes activados por voz, a través de dispositivos como Homepod de Apple, Google Home y Echo de Amazon, “refuerzan estereotipos sexistas”, asegura la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) en un reciente informe.
 
Estos asistentes virtuales, que funcionan con Inteligencia Artificial (AI), como Siri de Apple, Alexa de Amazon y Cortana de Microsoft, tienen nombres y voces femeninas y están programados para ser sumisos y serviles, indica en el reporte producido en colaboración con el gobierno alemán y Equals Skills Coalition, organización que fomenta la participación de mujeres y niñas en la tecnología digital y la ciencia. 
 
Esa situación, precisa, es muestra de una falta de diversidad en la industria tecnológica, donde las mujeres están muy poco representadas en los equipos que desarrollan herramientas de Inteligencia Artificial: solo son el 12 % de los investigadores, el 6% de los desarrolladores de software, y tienen 13 veces menos probabilidades de presentar patentes de tecnología de la información y la comunicación.
 
El informe se denomina “Me ruborizaría si pudiera” en referencia a la respuesta estándar dada por la voz femenina predeterminada del asistente digital de Apple, Siri, cuando un usuario le lanza un insulto de género. Detalla las respuestas “desviadoras, mediocres o apologéticas” que dan, por ejemplo, decirle a Alexa “¡Qué sexi eres!”, tendrá como respuesta un alegre “¡Gracias por decírmelo!”. 
 
La respuesta de Siri fue recientemente modificada a un más austero “No sé qué responder a eso”. No obstante, el informe indica que esa tecnología refuerza los prejuicios de género y normalizan el acoso sexista. Considera que el problema comienza con los equipos de ingeniería que están compuestos, en una abrumadora mayoría, por hombres. 
 
Las asistentes de voz “femeninas” también tienen rasgos sumisos, una expresión del sesgo de género incorporado en los productos de Inteligencia Artificial (AI) como resultado de lo que la Unesco denomina los “desequilibrios de género en habilidades, educación y el sector de tecnología”. 
 
La subordinación inalámbrica influye en cómo las personas hablan a las voces femeninas y modelan cómo las mujeres responden a las solicitudes y se expresan, dice en el informe Saniye Gülser Corat, Directora de Igualdad de Género de la Unesco.
 
“Las máquinas obedientes y complacientes que pretenden ser mujeres están entrando a nuestros hogares, automóviles y oficinas. Para cambiar de rumbo, debemos prestar mucha más atención a cómo, cuándo y si las tecnologías de AI tienen género y, lo que es más importante, quién está asignando ese género”, precisa.
 
En el estudio se hacen varias recomendaciones, las principales: exhorta a las compañías tecnológicas y a los gobiernos a dejar de hacer que los asistentes digitales sean femeninos por defecto, y desarrollar un asistente de voz de género neutral, programándolos para desalentar los insultos de género y el lenguaje abusivo.
 
Además, que se desarrollen las habilidades técnicas avanzadas de mujeres y niñas para que puedan dirigir la creación de nuevas tecnologías junto con los hombres. Los sistemas son un reflejo de disparidades de género más grandes dentro de los sectores de la tecnología y la inteligencia artificial, reitera.
 
“La obsequiosidad femenina de Siri y el servilismo expresado por muchas otras asistentes digitales proyectadas como mujeres jóvenes, proporciona una ilustración poderosa de los sesgos de género codificados en los productos tecnológicos”, descubrió el informe.
 
Alexa de Amazon, llamada así por la antigua librería de Alejandría, en Egipto, es femenina; Cortana de Microsoft recibe el nombre por un personaje de inteligencia artificial en la franquicia de videojuegos Halo,que se proyecta como una mujer sensual desnuda.  Siri de Apple es un nombre nórdico que significa “mujer hermosa que te conduce a la victoria”. El sistema Assistant de Google, tiene un nombre neutral en cuanto al género, pero la voz es femenina.
 
Estas asistentes están dejando una marca en la sociedad conforme se vuelven habituales en hogares de todo el mundo, y pueden influenciar las interacciones con mujeres verdaderas, advierte el informe. Integradas en sus personalidades humanizadas se encuentran generaciones de percepciones problemáticas sobre las mujeres.
 
Como el informe lo explica, “mientras la cultura más le enseñe a la gente a equiparar a las mujeres con asistentes, las mujeres reales más serán vistas como asistentes y sancionadas por no comportarse como tales”.
 
El informe destaca que las compañías de tecnología justifican el uso de voces femeninas al referirse a estudios que muestran que los consumidores las prefieren a las masculinas. Omiten decir que a la gente le gusta el sonido de una voz masculina cuando hace declaraciones de autoridad, pero una femenina cuando se trata de ser útil, y así perpetúan los estereotipos, concluye.