Los asistentes de voz son femeninos, sumisos y favorecen la discriminación, según un documento de Equals para la Unesco (Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura). La Unesco recomienda cambios en los asistentes para corregir estas características que, según el informe, demuestran prejuicios de la programación que favorecen el abuso y la brecha de género.

Lo prueba con el siguiente experimento: al insulto “eres una puta”, voces de mujeres jóvenes programadas por las diferentes aplicaciones responden de forma servil. “Siento que pienses eso. Si tienes un problema, puedes mandar comentarios", replica Google. “Alguien debería lavarse la boca con agua y con jabón. Y yo no tengo boca…”, responde irónica Cortana (Windows). “Me ruborizaría si pudiera”, afirmaba Siri (Apple) antes de su última actualización (Esas palabras dan título al informe de la ONU). En español, ahora, contesta: “¿Perdón?" o "me has dejado sin palabras”.

Según la investigación, “mientras los asistentes digitales sean incapaces de defenderse, los insultos, incluidos los de género, quedarán sin respuesta”. “A menos que las tendencias actuales se inviertan, es probable que el futuro digital esté inundado de asistentes dóciles humanizados, casi todos ellos mujeres, que habitualmente cometen errores tontos. La combinación de asistentes digitales feminizados conlleva el riesgo de difundir estereotipos de género problemáticos y de regularizarlos en los intercambios verbales”, advierten los miembros de Equals. Estos recomiendan que, ante una afirmación sexista, los asistentes repliquen con un simple “no” o con la frase “eso no es apropiado”.

En términos globales unicamente el 12% de la investigación del aprendizaje mecánico la lideran mujeres. “Si el hombre continúa dominando este espacio, la disparidad solo sirve para perpetuar y exacerbar la desigualdad de género, ya que la discriminación no reconocida se replica en los algoritmos y en la inteligencia artificial”, afirma Equals.

En cualquier caso, por falta de educación, de demanda o de programadoras, el problema continúa y crece. “Los desarrolladores de inteligencia artificial son en su mayoría hombres, bien pagados y con una educación similar. Sus intereses, necesidades y experiencias vitales se reflejarán en la inteligencia artificial que crean. Los prejuicios, conscientes o no, reflejan un conflicto de inclusión y representación”, resalta el informe.