¿Está bien que las máquinas de silicio y acero o de carne y hueso borren nuestras contribuciones? ¿Está bien que una máquina nos borre a ti y a mí? ¿Está bien que las máquinas presenten a las mujeres como serviles? ¿Está bien que Google y otros capturen datos sin nuestro conocimiento? Estas preguntas y la nueva investigación dirigida por Allison Koenecke inspiraron la creación de "Voicing Erasure": una pieza poética recitada por los campeones del empoderamiento de la mujer y los principales estudiosos de la raza, el género y la tecnología.
Un reciente estudio de investigación dirigido por Allison Koenecke revela grandes disparidades raciales en el rendimiento de cinco sistemas populares de reconocimiento del habla, siendo el peor rendimiento el de los afroamericanos que hablan inglés vernáculo. Ver la investigación original
Los dispositivos de reconocimiento de voz son conocidos por "escuchar" nuestras conversaciones y almacenar esa información a menudo sin nuestro conocimiento.
A estos sistemas se les suele dar voz a las mujeres y "personalidades" serviles, lo que acentúa aún más el estereotipo negativo de que las mujeres son sumisas.
Un artículo del New York Times que destacaba la investigación sobre los sesgos en los sistemas de reconocimiento de voz, no incluía a la investigadora principal, Allison Koenecke, y a todas las demás mujeres que formaban parte del equipo de investigación.
Ayúdanos a arrojar luz sobre el impacto de los daños de la IA en los derechos civiles y la vida de las personas en todo el mundo. Puedes compartir tu historia usando el hashtag #CodedBias o enviarnos un mensaje privado.
comparte tu historiaNo podemos dejar que las promesas de la IA eclipsen los daños reales y presentes. Como el reconocimiento facial, los sistemas de reconocimiento de voz también reflejan los prejuicios de sus creadores y de nuestra sociedad. Ahora, más que nunca, debemos luchar. Si eres consciente de cualquier sesgo algorítmico que te afecte a ti o a otros en tus comunidades, por favor compártelo con el mundo.
Los sistemas de reconocimiento automático del habla (RSA), que utilizan sofisticados algoritmos de aprendizaje automático para convertir el lenguaje hablado en texto, se han extendido cada vez más, impulsando a los populares asistentes virtuales, facilitando el subtitulado automatizado y habilitando plataformas de dictado digital para la atención de la salud. En los últimos años, la calidad de estos sistemas ha mejorado notablemente, debido tanto a los avances en el aprendizaje profundo como a la recopilación de conjuntos de datos a gran escala utilizados para entrenar los sistemas. Sin embargo, existe la preocupación de que estos instrumentos no funcionen igualmente bien para todos los subgrupos de la población. Aquí, examinamos la capacidad de cinco sistemas ASR de última generación -desarrollados por Amazon, Apple, Google, IBM y Microsoft- para transcribir entrevistas estructuradas realizadas con 42 hablantes blancos y 73 hablantes negros.
El sesgo codificado ilumina nuestros conceptos erróneos sobre la IA y enfatiza la urgente necesidad de protección legislativa, y sigue el camino de la Liga de Justicia Algorítmica para impulsar la primera legislación en los EE.UU. que pone límites a la tecnología de reconocimiento facial. Coded Bias teje las historias personales de personas cuyas vidas han sido directamente impactadas por algoritmos injustos. Puedes impactar ayudándonos a difundir la película, organizando una proyección y/o compartiendo tu #CodedBias con tu red.
Autor principal del estudio "Disparidades raciales en el reconocimiento automático del habla" @allisonkoe
Profesor de Derecho en la UCLA y en la Escuela de Derecho de Columbia
@sandylocks
CEO de Shift7
@smithmegan
Autor de Algoritmos de Opresión @safiyanoble
"Los sistemas de reconocimiento automático del habla (RSA) se utilizan ahora en diversas aplicaciones para convertir el lenguaje hablado en texto, desde asistentes virtuales, pasando por subtítulos, hasta computación de manos libres. Analizando un gran corpus de entrevistas sociolingüísticas con hablantes blancos y afroamericanos, demostramos grandes disparidades raciales en el rendimiento de cinco populares sistemas comerciales de ASR".
Por favor, contacte con comms@ajlunited.org o descargue nuestro kit de prensa. Agradecemos cualquier oportunidad que nos ayude a desenmascarar los inminentes daños y prejuicios de la IA.