ActuarAcerca deEnfoquebibliotecaCONTACTOinvestigaciónproyectoscharlaspolítica/defensaexposicioneseducaciónPRENSA
NUESTRA MISIÓN

Estamos liderando un movimiento cultural hacia una IA EQUITATIVA y RESPONSABLE

Ahora vivimos en un mundo donde la IA rige el acceso a la información, la oportunidad y la libertad. Sin embargo, los sistemas de IA pueden perpetuar el racismo, el sexismo, el hinduismo y otras formas nocivas de discriminación, por lo que representan amenazas significativas para nuestra sociedad, desde la atención sanitaria hasta las oportunidades económicas y el sistema de justicia penal.

La Algorithmic Justice League es una organización que combina arte e investigación para poner de manifiesto las implicaciones sociales y los perjuicios de la inteligencia artificial.

La
misión de AJL es sensibilizar a la opinión pública sobre las repercusiones de la IA, dotar a los defensores de los derechos humanos de recursos para reforzar las campañas, dar voz y opción a las comunidades más afectadas e impulsar a investigadores, responsables políticos y profesionales del sector para prevenir los daños de la IA.

AJL es un proyecto patrocinado fiscalmente por Code for Science & Society.

Queremos que el mundo recuerde que quien codifica importa, como codificamos importa, y que podemos codificar un futuro mejor.
EL EQUIPO DE LA LIGA DE JUSTICIA ALGORÍTMICA

Encender el poder de la investigación, el arte y la narración de historias

Creemos en el poder de la narración de historias para el cambio social. Contamos historias que galvanizan la acción tanto con la investigación como con el arte. Seguimos un enfoque científico en nuestras investigaciones, experimentos y recomendaciones políticas. Confiamos en el arte, la libertad y la creatividad para difundir la palabra, generar conciencia sobre los daños en la IA y amplificar la voz de las comunidades marginadas en el ecosistema actual de la IA. Lo más importante es que sabemos que hacer el cambio es un esfuerzo de equipo. Luchar por la justicia algorítmica nos lleva a todos.

Fundador y Artista en Jefe
Dr. Joy Buolamwini (ella/él)

Poeta del código e investigadora de IA motivada por experiencias personales de discriminación algorítmica, la Dra. Joy compartió su historia en una charla destacada de TED que cuenta con más de 1,4 millones de visitas y lanzó la Liga de la Justicia Algorítmica en 2016.

Asesor principal de investigación
Sasha Costanza Chock (ellos/ellas), PhD

Investigadora, diseñadora y alborotadora, Sasha dirigió los equipos inaugurales de investigación y diseño de productos de AJL. Lea el último libro de Sasha, Design Justice, disponible gratuitamente aquí.

Director de Política y Defensa
Tawana Petty (ella/ellos)

Madre, organizadora de justicia social, poeta y escritora, Tawana representa a AJL en los procesos nacionales e internacionales que dan forma a la gobernanza de la IA. Ha sido miembro del comité del programa de ACM FAcct y revisora de ética de NeurIPS.

Comunicaciones
Meagan Adele Lopez (ella/él)

Fundadora de Lady Who Productions, Adele es autora, experta en redes sociales y cineasta. Ella y su equipo gestionan las redes sociales y los eventos especiales de AJL.

Asesor principal
Dr. José Ramón Lizárraga (él/ella)

Científica del aprendizaje y ganadora de varios premios Webby, la Dra. Lizárraga aporta a AJL su experiencia en enfoques creativos e innovadores de la comunicación de masas y la pedagogía pública.

Analista jefe de experiencias codificadas
Berhan Taye (ella/él)

Copresentadora de Terms and Conditions Podcast , Berhan es investigadora independiente, analista y facilitadora. Dirige el análisis de informes sobre daños causados por la IA, desarrolla estrategias de respuesta e identifica recursos para personas gravemente afectadas por los sistemas de IA.

Asesor principal
Dr. Ruha Benjamin (ella/él)

Profesor de Estudios Afroamericanos en la Universidad de Princeton, director fundador del Ida B. Wells JUST Data Lab y autor de tres libros, Justicia viral (2022), Race After Technology (2019), y La ciencia del pueblo (2013), y editor de Tecnología cautivadora (2019). La Dra. Benjamin asesora a AJL sobre la relación entre innovación e inequidad, conocimiento y poder, raza y ciudadanía, salud y justicia.

‍

Joy Buolamwini
Joy Buolamwini

Poeta del código e investigadora de la IA motivada por experiencias personales de discriminación algorítmica, Joy compartió su historia en una charla presentada en TED que tiene más de 1,2 millones de vistas y lanzó la Liga de la Justicia Algorítmica.

Nicole Hughes
Nicole Hughes

Recaudadora de fondos y amante del arte, Nicole dirige nuestros Proyectos de Comunicación Creativa formando colaboraciones con socios de todo el mundo para amplificar nuestro impacto.

Sasha Costanza-Chock (ellos/ellas), PHD
Director de Investigación y Diseño

Investigadora, diseñadora y alborotadora, Sasha dirige los equipos de investigación y diseño de productos de AJL, y se la puede encontrar facilitando proyectos participativos como #DragVsAI y crash.ajl.org. Lee el último libro de Sasha, Design Justice, disponible gratuitamente aquí.

Dana Tzegaegbe
Director de proyectos y jefe de operaciones

Dana es responsable de crear una cultura de equipo sana y equitativa, garantizar la excelencia operativa en todo el equipo y apoyar el desarrollo y la supervisión del presupuesto.

Grace Foster, MBA
Director de Desarrollo

Las experiencias de Grace sobre la desigualdad, la marginación y la falta de acceso a la riqueza y las oportunidades han alimentado su ambición de formar parte del cambio. Defiende la igualdad y la inclusión de las comunidades marginadas y el empoderamiento de quienes no han tenido acceso a las oportunidades.

Miembros principales de la Liga
Joy Buolamwini

Poeta del código e investigadora de la IA motivada por experiencias personales de discriminación algorítmica, Joy compartió su historia en una charla presentada en TED que tiene más de 1,2 millones de vistas y lanzó la Liga de la Justicia Algorítmica.

Nicole Hughes

Recaudadora de fondos y amante del arte, Nicole dirige nuestros Proyectos de Comunicación Creativa formando colaboraciones con socios de todo el mundo para amplificar nuestro impacto.

Sasha Costanza-Chock (ellos/ellas), PHD, Directora de Investigación y Diseño

Investigadora, diseñadora y alborotadora, Sasha dirige los equipos de investigación y diseño de productos de AJL, y se la puede encontrar facilitando proyectos participativos como #DragVsAI y crash.ajl.org. Lee el último libro de Sasha, Design Justice, disponible gratuitamente aquí.

Dana Tzegaegbe, directora de proyectos y operaciones

Dana es responsable de crear una cultura de equipo sana y equitativa, garantizar la excelencia operativa en todo el equipo y apoyar el desarrollo y la supervisión del presupuesto.

Grace Foster, MBA, Directora de Desarrollo

Las experiencias de Grace sobre la desigualdad, la marginación y la falta de acceso a la riqueza y las oportunidades han alimentado su ambición de formar parte del cambio. Defiende la igualdad y la inclusión de las comunidades marginadas y el empoderamiento de quienes no han tenido acceso a las oportunidades.

Colaboradores de investigación seleccionados

Dr. Timnit Gebru, Dra. Margaret Mitchell e Inioluwa Deborah Raji.

Financiadores de CORE

La Fundación Ford, la Fundación MacArthur, y donantes individuales y partidarios como USTEDES.

Tripulación extendida

Casa Blue, Yancey Consulting, BU/MIT Technology Law Center y Bocoup.

COMITÉ ADVISORIO

-Dr. Joy Buolamwini
-Megan Smith
-Brenda Darden Wilkerson

NUESTROS PRINCIPIOS

Mitigamos los daños y prejuicios de la IA promoviendo 4 principios básicos.

Consentimiento afirmativo

Todo el mundo debería tener una opción real en cómo y si interactúan con los sistemas de inteligencia artificial.

transparencia significativa

Es de vital interés público que la gente sea capaz de entender los procesos de creación y despliegue de la IA de una manera significativa, y que tengamos una comprensión total de lo que la IA puede y no puede hacer.

Supervisión y rendición de cuentas continuas

Los políticos y los responsables de la formulación de políticas deben crear mecanismos sólidos que protejan a las personas de los daños de la IA y los sistemas conexos, tanto mediante la vigilancia continua y la limitación de los peores abusos como haciendo que las empresas y otras instituciones rindan cuentas cuando se produzcan los daños. Todos, especialmente los más afectados, deben tener acceso a la reparación de los daños causados por la IA. Además, las instituciones y los responsables de la adopción de decisiones que utilizan las tecnologías de la IA deben estar sujetos a una rendición de cuentas que vaya más allá de la autorregulación.

Crítica procesable

Nuestro objetivo es terminar con las prácticas dañinas en la IA, más que con el nombre y la vergüenza. Lo hacemos mediante la realización de investigaciones y la traducción de lo que hemos aprendido en principios, mejores prácticas y recomendaciones que utilizamos como base para nuestros esfuerzos de promoción, educación y sensibilización. Nos centramos en cambiar las prácticas de la industria entre los que crean y comercializan los sistemas actuales.

4:59
NUESTROS ORÍGENES

La inspiración para la Liga de la Justicia Algorítmica

La Dra. Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica, se enfrentó a la discriminación. Por parte de una máquina. Puede parecer una escena de una película de ciencia ficción, pero tiene importantes consecuencias en el mundo real.

Mientras trabajaba en un proyecto de posgrado, el software de análisis facial tuvo problemas para detectar su rostro. Sospechaba que era algo más que un error técnico, pero en lugar de rendirse, respondió con curiosidad. Sus compañeros del MIT con un color de piel más claro no tenían los mismos problemas, así que Joy intentó dibujar una cara en la palma de su mano. La máquina la reconoció inmediatamente. Aun así, no hubo suerte con su cara real, así que tuvo que terminar su proyecto de codificación con una máscara blanca sobre la cara para que la detectaran. Muchas preguntas surgieron, lo que dio a Joy la motivación y las ideas para iniciar la Liga de la Justicia Algorítmica.

2:41

En sus inicios, Joy dedicó su investigación a "desenmascarar el sesgo" en las tecnologías de reconocimiento facial. Como estudiante de posgrado en el MIT, descubrió gran sesgo de género y tipo de piel en productos comercializados por empresas de renombre como IBM y Microsoft. A continuación, fue coautora del influyente documento Gender Shades con el Dr. Timnit Gebru, y del documento de seguimiento Actionable Auditing con la agente Deb Raji, que puso en aprietos a Amazon. Como artista, empezó a crear piezas para humanizar los daños de la IA, con su premiado poema visual de palabra hablada "AI, Ain't I A Woman?", que se mostró en exposiciones de todo el mundo. Esta combinación de arte e investigación consiguió el apoyo de cientos de otros investigadores para abogar por una tecnología más equitativa y responsable. La exclusión y la discriminación se extienden mucho más allá de las tecnologías de reconocimiento facial y afectan a todo, desde los servicios sanitarios y financieros hasta el empleo y la justicia penal.

Cuanto más profundo excavemos, más restos de prejuicios encontraremos en nuestra tecnología. No podemos permitirnos mirar hacia otro lado esta vez porque lo que está en juego es simplemente demasiado alto. Nos arriesgamos a perder los logros obtenidos con el movimiento de derechos civiles y otros movimientos por la igualdad bajo la falsa suposición de la neutralidad de la máquina.

MÁS EJEMPLOS

Los sistemas automatizados discriminan a diario

En los EE.UU., un algoritmo de salud ampliamente utilizado concluye falsamente que los pacientes negros son más saludables que los pacientes blancos igualmente enfermos. La IA que se usa para determinar las decisiones de contratación ha demostrado amplificar la discriminación de género existente. Los organismos de aplicación de la ley están adoptando rápidamente tecnologías de predicción policial y de evaluación de riesgos que refuerzan las pautas de discriminación racial injusta en el sistema de justicia penal. Los sistemas de IA dan forma a la información que vemos en los medios de comunicación social y pueden perpetuar la desinformación cuando se optimizan para priorizar el contenido que atrae la atención. Los ejemplos son interminables.

índice

DAÑOS DE IA

Daños individuales, discriminación ilegal, prácticas desleales, daños sociales colectivos
Crédito: Cortesía de Megan Smith (ex-jefa de tecnología de los EE.UU.)
CONSENTIMIENTO Y TRANSPARENCIA

Todavía tenemos derecho a los derechos humanos básicos.

No podemos dar por sentados los sistemas. Aunque la tecnología puede darnos conectividad, comodidad y acceso, debemos conservar el poder de tomar nuestras propias decisiones. ¿Estamos cambiando la comodidad por los grilletes? La gente debe tener voz y elegir cómo se utiliza la IA.

En los Estados Unidos, los equipos que diseñan todos los sistemas no son inclusivos. Menos del 20% de las personas en la tecnología son mujeres y menos del 2% son personas de color. Además, uno de cada dos adultos (eso es más de 130 millones de personas) tiene su cara en una red de reconocimiento facial. Esas bases de datos pueden ser buscadas y analizadas por algoritmos no auditados sin ninguna supervisión, y las implicaciones son masivas. 

Más allá de las prácticas inclusivas y éticas en el diseño y la construcción de algoritmos, exigimos que haya más transparencia cuando se utilicen los sistemas. Necesitamos saber cuáles son los insumos y cómo se obtuvieron, cómo se mide el rendimiento, las directrices para las pruebas y las posibles implicaciones, riesgos y defectos al aplicarlos a situaciones de la vida real. Esto no es una preferencia de privacidad. Es una violación de nuestras libertades civiles, en la que las corporaciones están ganando dinero a costa de las caras de la gente y se pone en riesgo la vida de las personas sin su consentimiento.

Michelle Obama
1:15

A veces respetar a la gente significa asegurarse de que sus sistemas son inclusivos como en el caso de usar la IA para la medicina de precisión. A veces significa respetar la privacidad de las personas al no recoger ningún dato. Y siempre significa respetar la dignidad de un individuo".

- Dra. Joy Buolamwini, Poeta del Código.
AGENTES DE CAMBIO

Llamando a colaboradores, contribuyentes y voluntarios.

Como organización que pone de relieve cuestiones críticas en los sistemas comerciales, nos enfrentamos constantemente al riesgo de represalias e intentos de silenciamiento. Mientras que algunas empresas reaccionan positivamente a nuestros hallazgos, otras no lo hacen. Afortunadamente, hemos crecido como movimiento y contamos con el apoyo de los investigadores de IA más respetados, organizaciones y miles de "Agentes del Cambio" que creen en nuestra misión.

Hemos visto el poder de la colaboración en un enfrentamiento con Amazon después de que intentara desacreditar la investigación revisada por pares. Tras las refutaciones de la Dra. Joy Buolamwini (publicadas aquí y aquí), más de 70 investigadores defendieron este trabajo y el Instituto Nacional de Estándares y Tecnología publicó un estudio exhaustivo que mostraba un amplio sesgo racial, de género y de edad en los algoritmos de reconocimiento facial que validaba las preocupaciones planteadas por la investigación.

Si crees que todos merecemos una IA equitativa y responsable, entonces también puedes convertirte en un agente de cambio. Ya seas un entusiasta, ingeniero, periodista o político, te necesitamos. Contáctanos o actúa ahora.

ACTÚA AHORA
Contáctanos
hashtags

#CodedBias #EquitableAI #AccountableAI #InclusiveAI #ResponsableAI #EthicalAI #AIbias #AIharms #MachineBias #ArtificialIntelligence #InclusiveTech #AJL #AlgorithmicJusticeLeague

Navegue por
  • Inicio
  • Actúa
  • Acerca de
  • Foco 
  • Biblioteca
  • Aprende másPolítica de privacidad
nuestra biblioteca
  • Investigación
  • Proyectos
  • Charlas
  • Política/Defensa
  • Exposiciones
  • Educación
  • Presiona
Contáctanos
  • Ponte en contacto
  • Comparta su historia
  • Periodistas
©Liga de la Justicia Algorítmica 2022
Powered by Casa Blue