ActuarAcerca deEnfoquebibliotecaCONTACTOinvestigaciónproyectoscharlaspolítica/defensaexposicioneseducaciónPRENSA
Máscara blanca del sesgo codificado.
Una película de SHALINI KANTAYYA
Sesgo codificado

Cuando la investigadora del MIT, la poetisa y científica informática Joy Buolamwini descubre prejuicios raciales y de género en los sistemas de IA vendidos por las grandes empresas tecnológicas, se embarca en un viaje junto a mujeres pioneras que hacen sonar la alarma sobre los peligros de la inteligencia artificial no controlada que nos afecta a todos. A través de la transformación de Joy de científica a firme defensora y de las historias de personas cotidianas que experimentan daños técnicos, Coded Bias arroja luz sobre las amenazas que la IA supone para los derechos civiles y la democracia.
Vea los detalles de la proyección aquí.

MIRA EL TRAILER

ayúdanos a desenmascarar a #CODEDBIAS

inscribirsecompartiraprenderdonarAcoge la proyección
HISTORIAS PERSONALES

CUANDO LA INTELIGENCIA ARTIFICIAL SE EQUIVOCA, VIDAS REALES ESTÁN EN JUEGO

El Sesgo Codificado teje las historias personales de personas cuyas vidas han sido directamente impactadas por algoritmos injustos. Puedes hacer un impacto ayudándonos a difundir la película, organizando una proyección y/o introduciendo tu correo electrónico a continuación para unirte al movimiento hacia una IA equitativa y responsable.

únete al movimiento
Tecnologías de reconocimiento facial

Las herramientas de reconocimiento facial que venden las grandes empresas de tecnología, como IBM, Microsoft y Amazon, tienen un sesgo racial y de género. Incluso han fallado en clasificar correctamente los rostros de iconos como Oprah Winfrey, Michelle Obama y Serena Williams. Alrededor del mundo, estas herramientas se están desplegando, lo que plantea preocupaciones de vigilancia masiva.

Empleo

Un profesor premiado y querido se enfrenta a la injusticia con una herramienta de evaluación automatizada, exponiendo el riesgo de confiar en la inteligencia artificial para juzgar la excelencia humana.

Vivienda

Una empresa de administración de edificios en Brooklyn planea implementar un software de reconocimiento facial para que los inquilinos lo usen para entrar a sus casas, pero la comunidad se defiende.

Justicia penal

A pesar de que se esfuerza por contribuir a la sociedad, una ciudadana que regresa encuentra sus esfuerzos en peligro debido a los instrumentos de evaluación de riesgos de las fuerzas del orden. El sistema de justicia penal ya está plagado de injusticia racial y los algoritmos sesgados lo están acentuando.

PONGAMOS UNA CARA A LOS DAÑOS DE LA I.A.

¿ha sido testigo de una inteligencia artificial injusta que le afecta a usted o a otros?

Ayúdanos a arrojar luz sobre el impacto de los daños de la IA en los derechos civiles y la vida de las personas en todo el mundo. Puedes compartir tu historia usando el hashtag #CodedBias o enviarnos un mensaje privado.

comparte tu historia
Aprende más...

¿QUÉ SIGNIFICA QUE LA I.A. GOBIERNE CADA VEZ MÁS NUESTRAS OPORTUNIDADES?

Los sistemas de IA se están infiltrando cada vez más en nuestras vidas influyendo en quién consigue un trabajo, qué estudiantes son admitidos en la universidad, cómo los coches navegan por las carreteras, qué tratamiento médico recibe un individuo e incluso con quién salimos. Y mientras que los constructores de sistemas de IA apuntan a superar las limitaciones humanas, los estudios de investigación y los titulares continúan recordándonos que estos sistemas vienen con riesgos de parcialidad y abuso. La IA refleja la mirada codificada - nuestro término para las prioridades, preferencias, y a veces prejuicios de aquellos que tienen el poder de dar forma a la tecnología.

Aprende más...
Prensa/medios de comunicación
Los expertos instaron al Congreso de los EE.UU. a regular el uso de la tecnología de reconocimiento facial
Leer más
IR MÁS ALLÁ DE LA AUTORREGULACIÓN

PRIMERA LEGISLACIÓN FEDERAL DE RECONOCIMIENTO FACIAL

El sesgo codificado ilumina nuestros conceptos erróneos sobre la IA y enfatiza la urgente necesidad de protección legislativa, y sigue el camino de la Liga de Justicia Algorítmica para impulsar la primera legislación en los EE.UU. que pone límites a la tecnología de reconocimiento facial. Apoya nuestro trabajo compartiendo nuestras iniciativas de defensa y política, o haciendo una donación para que podamos seguir adelante.

hacer una donación

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

La tecnología debe estar al servicio de todos. No sólo a unos pocos privilegiados.

¡Gracias! Su presentación ha sido recibida!
¡Uy! Algo salió mal al enviar el formulario.
SOBRE EL DIRECTOR DE CINE

SHALINI KANTAYYA

Shalini Kantayya dirigió el final de temporada de la serie de National Geographic Breakthrough con el productor ejecutivo Ron Howard. Su primer largometraje, Catching the Sun, se estrenó en el Festival de Cine de Los Ángeles y fue elegido por los críticos del New York Times. La película se estrenó mundialmente en Netflix el Día de la Tierra 2016 con el productor ejecutivo Leonardo DiCaprio y fue nominada al Premio de la Asociación de Medios de Comunicación Ambientales al Mejor Documental. Kantayya es un becario de TED.

Logotipo de Sundance
CRÉDITOS ADICIONALES

elenco destacado

@jovialjoy
@jovialjoy
Joy Buolamwini

Fundador de la Liga de la Justicia Algorítmica @jovialjoy

@mathbabedotorg
@mathbabedotorg
Cathy O'Neil

Autor de Weapons of Math Destruction @mathbabedotorg

@merbroussard
@merbroussard
Meredith Broussard

Autor de Artificial Unintelligence @merbroussard

@safiyanoble
@safiyanoble
Safiya Noble

Autor de Algoritmos de Opresión @safiyanoble

@zeynep
@zeynep
Zeynep Tufekci

Autor de Twitter y Teargas @zeynep

@amywebb
@amywebb
Amy Webb

Autor de The Big Nine @amywebb

Coded Bias es un documental que no puedes permitirte perderte".
- Marie Claire
La IA no es neutral, y las mujeres lideran la carga para asegurar la protección de nuestros derechos civiles".
- Instituto Sundance
Una película imprescindible para todos los líderes en el 2020".
- Inc.

OPORTUNIDADES DE MEDIOS DE COMUNICACIÓN

Por favor, contacte con contact@ajl.org o descargue nuestro kit de prensa. Agradecemos cualquier oportunidad que nos ayude a desenmascarar los inminentes daños y prejuicios de la IA.

CONTÁCTENOS

@AJLUNITED

SÍGUENOS EN LA SECCIÓN SOCIAL
Ver en twitter
Ver en twitter
Vista del programa
Vista del programa
Vista del programa
Ver en twitter
hashtags

#CodedBias #EquitableAI #AccountableAI #InclusiveAI #ResponsableAI #EthicalAI #AIbias #AIharms #MachineBias #ArtificialIntelligence #InclusiveTech #AJL #AlgorithmicJusticeLeague

Navegue por
  • Inicio
  • Actúa
  • Acerca de
  • Foco 
  • Biblioteca
  • Aprende másPolítica de privacidad
nuestra biblioteca
  • Investigación
  • Proyectos
  • Charlas
  • Política/Defensa
  • Exposiciones
  • Educación
  • Presiona
Contáctanos
  • Ponte en contacto
  • Comparta su historia
  • Periodistas
©Liga de la Justicia Algorítmica 2022
Powered by Casa Blue