ActuarAcerca deEnfoquebibliotecaCONTACTOinvestigaciónproyectoscharlaspolítica/defensaexposicioneseducaciónPRENSA
¿Alexa? ¿Siri? ¿Cortana? ¿Me estás escuchando?
RELOJ DE VOZ BORRADO
RECONOCIMIENTO DE VOZ

¿DE QUIÉN ES LA VOZ QUE
REALMENTE ESCUCHAS?

¿DE QUIÉN ES LA VOZ
QUE
REALMENTE ESCUCHAS?

¿Está bien que las máquinas de silicio y acero o de carne y hueso borren nuestras contribuciones? ¿Está bien que una máquina nos borre a ti y a mí? ¿Está bien que las máquinas presenten a las mujeres como serviles? ¿Está bien que Google y otros capturen datos sin nuestro conocimiento? Estas preguntas y la nueva investigación dirigida por Allison Koenecke inspiraron la creación de "Voicing Erasure": una pieza poética recitada por los campeones del empoderamiento de la mujer y los principales estudiosos de la raza, el género y la tecnología.

¡Gracias! Su presentación ha sido recibida!
¡Uy! Algo salió mal al enviar el formulario.


LOS SISTEMAS DE VOZ TIENEN SESGOS

Un reciente estudio de investigación dirigido por Allison Koenecke revela grandes disparidades raciales en el rendimiento de cinco sistemas populares de reconocimiento del habla, siendo el peor rendimiento el de los afroamericanos que hablan inglés vernáculo. Ver la investigación original

LAS VOCES ESTÁN SIENDO VIGILADAS

Los dispositivos de reconocimiento de voz son conocidos por "escuchar" nuestras conversaciones y almacenar esa información a menudo sin nuestro conocimiento.

LOS SISTEMAS DE VOZ REFUERZAN LOS ESTEREOTIPOS

A estos sistemas se les suele dar voz a las mujeres y "personalidades" serviles, lo que acentúa aún más el estereotipo negativo de que las mujeres son sumisas.

LAS CONTRIBUCIONES EN EL CAMPO SE ESTÁN BORRANDO
LAS CONTRIBUCIONES EN EL CAMPO SE
ESTÁN BORRANDO

Un artículo del New York Times que destacaba la investigación sobre los sesgos en los sistemas de reconocimiento de voz, no incluía a la investigadora principal, Allison Koenecke, y a todas las demás mujeres que formaban parte del equipo de investigación.

PONGAMOS UNA CARA A LOS DAÑOS DE LA I.A.

¿ha sido testigo de una inteligencia artificial injusta que le afecta a usted o a otros?

Ayúdanos a arrojar luz sobre el impacto de los daños de la IA en los derechos civiles y la vida de las personas en todo el mundo. Puedes compartir tu historia usando el hashtag #CodedBias o enviarnos un mensaje privado.

comparte tu historia
SE INVOLUCREN EN LA LUCHA CONTRA EL SESGO ALGORÍTMICO
SE INVOLUCREN EN LA LUCHA
CONTRA EL SESGO ALGORÍTMICO

¿CUÁL ES TU HISTORIA DE #CODEDBIAS?

No podemos dejar que las promesas de la IA eclipsen los daños reales y presentes. Como el reconocimiento facial, los sistemas de reconocimiento de voz también reflejan los prejuicios de sus creadores y de nuestra sociedad. Ahora, más que nunca, debemos luchar. Si eres consciente de cualquier sesgo algorítmico que te afecte a ti o a otros en tus comunidades, por favor compártelo con el mundo.

TUITEA TU HISTORIA #CODIFICADA
LA INVESTIGACIÓN QUE INSPIRÓ EL BORRADO DE LA VOZ
LA INVESTIGACIÓN QUE INSPIRÓ
EL BORRADO DE LA VOZ

Disparidades raciales en
el reconocimiento automático del habla

Los sistemas de reconocimiento automático del habla (RSA), que utilizan sofisticados algoritmos de aprendizaje automático para convertir el lenguaje hablado en texto, se han extendido cada vez más, impulsando a los populares asistentes virtuales, facilitando el subtitulado automatizado y habilitando plataformas de dictado digital para la atención de la salud. En los últimos años, la calidad de estos sistemas ha mejorado notablemente, debido tanto a los avances en el aprendizaje profundo como a la recopilación de conjuntos de datos a gran escala utilizados para entrenar los sistemas. Sin embargo, existe la preocupación de que estos instrumentos no funcionen igualmente bien para todos los subgrupos de la población. Aquí, examinamos la capacidad de cinco sistemas ASR de última generación -desarrollados por Amazon, Apple, Google, IBM y Microsoft- para transcribir entrevistas estructuradas realizadas con 42 hablantes blancos y 73 hablantes negros.

LEA EL INFORME OFICIAL DE INVESTIGACIÓN
PELÍCULA DE CODED BIAS


FESTIVAL DE CINE DE SUNDANCE
DOCUMENTAL DE CODED BIAS

El sesgo codificado ilumina nuestros conceptos erróneos sobre la IA y enfatiza la urgente necesidad de protección legislativa, y sigue el camino de la Liga de Justicia Algorítmica para impulsar la primera legislación en los EE.UU. que pone límites a la tecnología de reconocimiento facial. Coded Bias teje las historias personales de personas cuyas vidas han sido directamente impactadas por algoritmos injustos. Puedes impactar ayudándonos a difundir la película, organizando una proyección y/o compartiendo tu #CodedBias con tu red.

APRENDA MÁS
PELÍCULA DE CODED BIAS

FESTIVAL DE CINE DE SUNDANCE DOCUMENTAL DE SESGO CODIFICADO

El sesgo codificado ilumina nuestros conceptos erróneos sobre la IA y enfatiza la urgente necesidad de protección legislativa, y sigue el camino de la Liga de Justicia Algorítmica para impulsar la primera legislación en los EE.UU. que pone límites a la tecnología de reconocimiento facial. Coded Bias teje las historias personales de personas cuyas vidas han sido directamente impactadas por algoritmos injustos. Puedes impactar ayudándonos a difundir la película, organizando una proyección y/o compartiendo tu #CodedBias con tu red.

APRENDA MÁS

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

La tecnología debe estar al servicio de todos. No sólo a unos pocos privilegiados.

¡Gracias! Su presentación ha sido recibida!
¡Uy! Algo salió mal al enviar el formulario.
¿De quién es la voz que escucha cuando piensa en la inteligencia, la innovación y las ideas que dan forma a nuestros mundos?
ADEMÁS DE LA FUNDADORA DE AJL, Joy Buolamwini, que se describe arriba,

Voces destacadas en la VOICACIÓN DE LA ERASIÓN

LAS 6 VOCES EN
LA ERASIÓN DE LA VOZ

@allisonkoe
@allisonkoe
Allison Koenecke

Autor principal del estudio "Disparidades raciales en el reconocimiento automático del habla" @allisonkoe

@sandylocks
@sandylocks
Kimberlè Crenshaw

Profesor de Derecho en la UCLA y en la Escuela de Derecho de Columbia
@sandylocks

@smithmegan
@smithmegan
Megan Smith

CEO de Shift7
@smithmegan

@safiyanoble
@safiyanoble
Safiya Noble

Autor de Algoritmos de Opresión @safiyanoble

@ruha9
@ruha9
Ruha Benjamin

Autor de Race after Technology @ruha9

@schock
@schock
Sasha Costanza-Chock

Autor de Design Justice @schock

DE LA
INVESTIGACIÓN ORIGINAL:

DE LA
INVESTIGACIÓN
ORIGINAL:

"Los sistemas de reconocimiento automático del habla (RSA) se utilizan ahora en diversas aplicaciones para convertir el lenguaje hablado en texto, desde asistentes virtuales, pasando por subtítulos, hasta computación de manos libres. Analizando un gran corpus de entrevistas sociolingüísticas con hablantes blancos y afroamericanos, demostramos grandes disparidades raciales en el rendimiento de cinco populares sistemas comerciales de ASR".

OPORTUNIDADES DE MEDIOS DE COMUNICACIÓN

Por favor, contacte con comms@ajlunited.org o descargue nuestro kit de prensa. Agradecemos cualquier oportunidad que nos ayude a desenmascarar los inminentes daños y prejuicios de la IA.

CONTÁCTENOS

@AJLUNITED

SÍGUENOS EN LA SECCIÓN SOCIAL
Ver en twitter
Ver en twitter
Vista del programa
Vista del programa
Vista del programa
Ver en twitter
hashtags

#CodedBias #EquitableAI #AccountableAI #InclusiveAI #ResponsableAI #EthicalAI #AIbias #AIharms #MachineBias #ArtificialIntelligence #InclusiveTech #AJL #AlgorithmicJusticeLeague

Navegue por
  • Inicio
  • Actúa
  • Acerca de
  • Foco 
  • Biblioteca
  • Aprende másPolítica de privacidad
nuestra biblioteca
  • Investigación
  • Proyectos
  • Charlas
  • Política/Defensa
  • Exposiciones
  • Educación
  • Presiona
Contáctanos
  • Ponte en contacto
  • Comparta su historia
  • Periodistas
©Liga de la Justicia Algorítmica 2022
Powered by Casa Blue