Cuando la investigadora del MIT, la poetisa y científica informática Joy Buolamwini descubre prejuicios raciales y de género en los sistemas de IA vendidos por las grandes empresas tecnológicas, se embarca en un viaje junto a mujeres pioneras que hacen sonar la alarma sobre los peligros de la inteligencia artificial no controlada que nos afecta a todos. A través de la transformación de Joy de científica a firme defensora y de las historias de personas cotidianas que experimentan daños técnicos, Coded Bias arroja luz sobre las amenazas que la IA supone para los derechos civiles y la democracia.
Vea los detalles de la proyección aquí.
El Sesgo Codificado teje las historias personales de personas cuyas vidas han sido directamente impactadas por algoritmos injustos. Puedes hacer un impacto ayudándonos a difundir la película, organizando una proyección y/o introduciendo tu correo electrónico a continuación para unirte al movimiento hacia una IA equitativa y responsable.
Las herramientas de reconocimiento facial que venden las grandes empresas de tecnología, como IBM, Microsoft y Amazon, tienen un sesgo racial y de género. Incluso han fallado en clasificar correctamente los rostros de iconos como Oprah Winfrey, Michelle Obama y Serena Williams. Alrededor del mundo, estas herramientas se están desplegando, lo que plantea preocupaciones de vigilancia masiva.
Un profesor premiado y querido se enfrenta a la injusticia con una herramienta de evaluación automatizada, exponiendo el riesgo de confiar en la inteligencia artificial para juzgar la excelencia humana.
Una empresa de administración de edificios en Brooklyn planea implementar un software de reconocimiento facial para que los inquilinos lo usen para entrar a sus casas, pero la comunidad se defiende.
A pesar de que se esfuerza por contribuir a la sociedad, una ciudadana que regresa encuentra sus esfuerzos en peligro debido a los instrumentos de evaluación de riesgos de las fuerzas del orden. El sistema de justicia penal ya está plagado de injusticia racial y los algoritmos sesgados lo están acentuando.
Ayúdanos a arrojar luz sobre el impacto de los daños de la IA en los derechos civiles y la vida de las personas en todo el mundo. Puedes compartir tu historia usando el hashtag #CodedBias o enviarnos un mensaje privado.
comparte tu historiaLos sistemas de IA se están infiltrando cada vez más en nuestras vidas influyendo en quién consigue un trabajo, qué estudiantes son admitidos en la universidad, cómo los coches navegan por las carreteras, qué tratamiento médico recibe un individuo e incluso con quién salimos. Y mientras que los constructores de sistemas de IA apuntan a superar las limitaciones humanas, los estudios de investigación y los titulares continúan recordándonos que estos sistemas vienen con riesgos de parcialidad y abuso. La IA refleja la mirada codificada - nuestro término para las prioridades, preferencias, y a veces prejuicios de aquellos que tienen el poder de dar forma a la tecnología.
El sesgo codificado ilumina nuestros conceptos erróneos sobre la IA y enfatiza la urgente necesidad de protección legislativa, y sigue el camino de la Liga de Justicia Algorítmica para impulsar la primera legislación en los EE.UU. que pone límites a la tecnología de reconocimiento facial. Apoya nuestro trabajo compartiendo nuestras iniciativas de defensa y política, o haciendo una donación para que podamos seguir adelante.
Shalini Kantayya dirigió el final de temporada de la serie de National Geographic Breakthrough con el productor ejecutivo Ron Howard. Su primer largometraje, Catching the Sun, se estrenó en el Festival de Cine de Los Ángeles y fue elegido por los críticos del New York Times. La película se estrenó mundialmente en Netflix el Día de la Tierra 2016 con el productor ejecutivo Leonardo DiCaprio y fue nominada al Premio de la Asociación de Medios de Comunicación Ambientales al Mejor Documental. Kantayya es un becario de TED.
Fundador de la Liga de la Justicia Algorítmica @jovialjoy
Autor de Weapons of Math Destruction @mathbabedotorg
Autor de Artificial Unintelligence @merbroussard
Autor de Algoritmos de Opresión @safiyanoble
Por favor, contacte con contact@ajl.org o descargue nuestro kit de prensa. Agradecemos cualquier oportunidad que nos ayude a desenmascarar los inminentes daños y prejuicios de la IA.