Ahora vivimos en un mundo donde la IA rige el acceso a la información, la oportunidad y la libertad. Sin embargo, los sistemas de IA pueden perpetuar el racismo, el sexismo, el hinduismo y otras formas nocivas de discriminación, por lo que representan amenazas significativas para nuestra sociedad, desde la atención sanitaria hasta las oportunidades económicas y el sistema de justicia penal.
La Algorithmic Justice League es una organización que combina arte e investigación para poner de manifiesto las implicaciones sociales y los perjuicios de la inteligencia artificial.
La misión de AJL es sensibilizar a la opinión pública sobre las repercusiones de la IA, dotar a los defensores de los derechos humanos de recursos para reforzar las campañas, dar voz y opción a las comunidades más afectadas e impulsar a investigadores, responsables políticos y profesionales del sector para prevenir los daños de la IA.
AJL es un proyecto patrocinado fiscalmente por Code for Science & Society.
Creemos en el poder de la narración de historias para el cambio social. Contamos historias que galvanizan la acción tanto con la investigación como con el arte. Seguimos un enfoque científico en nuestras investigaciones, experimentos y recomendaciones políticas. Confiamos en el arte, la libertad y la creatividad para difundir la palabra, generar conciencia sobre los daños en la IA y amplificar la voz de las comunidades marginadas en el ecosistema actual de la IA. Lo más importante es que sabemos que hacer el cambio es un esfuerzo de equipo. Luchar por la justicia algorítmica nos lleva a todos.
Poeta del código e investigadora de IA motivada por experiencias personales de discriminación algorítmica, la Dra. Joy compartió su historia en una charla destacada de TED que cuenta con más de 1,4 millones de visitas y lanzó la Liga de la Justicia Algorítmica en 2016.
Investigadora, diseñadora y alborotadora, Sasha dirigió los equipos inaugurales de investigación y diseño de productos de AJL. Lea el último libro de Sasha, Design Justice, disponible gratuitamente aquí.
Madre, organizadora de justicia social, poeta y escritora, Tawana representa a AJL en los procesos nacionales e internacionales que dan forma a la gobernanza de la IA. Ha sido miembro del comité del programa de ACM FAcct y revisora de ética de NeurIPS.
Fundadora de Lady Who Productions, Adele es autora, experta en redes sociales y cineasta. Ella y su equipo gestionan las redes sociales y los eventos especiales de AJL.
Científica del aprendizaje y ganadora de varios premios Webby, la Dra. Lizárraga aporta a AJL su experiencia en enfoques creativos e innovadores de la comunicación de masas y la pedagogía pública.
Copresentadora de Terms and Conditions Podcast , Berhan es investigadora independiente, analista y facilitadora. Dirige el análisis de informes sobre daños causados por la IA, desarrolla estrategias de respuesta e identifica recursos para personas gravemente afectadas por los sistemas de IA.
Profesor de Estudios Afroamericanos en la Universidad de Princeton, director fundador del Ida B. Wells JUST Data Lab y autor de tres libros, Justicia viral (2022), Race After Technology (2019), y La ciencia del pueblo (2013), y editor de Tecnología cautivadora (2019). La Dra. Benjamin asesora a AJL sobre la relación entre innovación e inequidad, conocimiento y poder, raza y ciudadanía, salud y justicia.
Poeta del código e investigadora de la IA motivada por experiencias personales de discriminación algorítmica, Joy compartió su historia en una charla presentada en TED que tiene más de 1,2 millones de vistas y lanzó la Liga de la Justicia Algorítmica.
Recaudadora de fondos y amante del arte, Nicole dirige nuestros Proyectos de Comunicación Creativa formando colaboraciones con socios de todo el mundo para amplificar nuestro impacto.
Investigadora, diseñadora y alborotadora, Sasha dirige los equipos de investigación y diseño de productos de AJL, y se la puede encontrar facilitando proyectos participativos como #DragVsAI y crash.ajl.org. Lee el último libro de Sasha, Design Justice, disponible gratuitamente aquí.
Dana es responsable de crear una cultura de equipo sana y equitativa, garantizar la excelencia operativa en todo el equipo y apoyar el desarrollo y la supervisión del presupuesto.
Las experiencias de Grace sobre la desigualdad, la marginación y la falta de acceso a la riqueza y las oportunidades han alimentado su ambición de formar parte del cambio. Defiende la igualdad y la inclusión de las comunidades marginadas y el empoderamiento de quienes no han tenido acceso a las oportunidades.
Dr. Timnit Gebru, Dra. Margaret Mitchell e Inioluwa Deborah Raji.
La Fundación Ford, la Fundación MacArthur, y donantes individuales y partidarios como USTEDES.
Casa Blue, Yancey Consulting, BU/MIT Technology Law Center y Bocoup.
-Dr. Joy Buolamwini
-Megan Smith
-Brenda Darden Wilkerson
Todo el mundo debería tener una opción real en cómo y si interactúan con los sistemas de inteligencia artificial.
Es de vital interés público que la gente sea capaz de entender los procesos de creación y despliegue de la IA de una manera significativa, y que tengamos una comprensión total de lo que la IA puede y no puede hacer.
Los políticos y los responsables de la formulación de políticas deben crear mecanismos sólidos que protejan a las personas de los daños de la IA y los sistemas conexos, tanto mediante la vigilancia continua y la limitación de los peores abusos como haciendo que las empresas y otras instituciones rindan cuentas cuando se produzcan los daños. Todos, especialmente los más afectados, deben tener acceso a la reparación de los daños causados por la IA. Además, las instituciones y los responsables de la adopción de decisiones que utilizan las tecnologías de la IA deben estar sujetos a una rendición de cuentas que vaya más allá de la autorregulación.
Nuestro objetivo es terminar con las prácticas dañinas en la IA, más que con el nombre y la vergüenza. Lo hacemos mediante la realización de investigaciones y la traducción de lo que hemos aprendido en principios, mejores prácticas y recomendaciones que utilizamos como base para nuestros esfuerzos de promoción, educación y sensibilización. Nos centramos en cambiar las prácticas de la industria entre los que crean y comercializan los sistemas actuales.
La Dra. Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica, se enfrentó a la discriminación. Por parte de una máquina. Puede parecer una escena de una película de ciencia ficción, pero tiene importantes consecuencias en el mundo real.
Mientras trabajaba en un proyecto de posgrado, el software de análisis facial tuvo problemas para detectar su rostro. Sospechaba que era algo más que un error técnico, pero en lugar de rendirse, respondió con curiosidad. Sus compañeros del MIT con un color de piel más claro no tenían los mismos problemas, así que Joy intentó dibujar una cara en la palma de su mano. La máquina la reconoció inmediatamente. Aun así, no hubo suerte con su cara real, así que tuvo que terminar su proyecto de codificación con una máscara blanca sobre la cara para que la detectaran. Muchas preguntas surgieron, lo que dio a Joy la motivación y las ideas para iniciar la Liga de la Justicia Algorítmica.
En sus inicios, Joy dedicó su investigación a "desenmascarar el sesgo" en las tecnologías de reconocimiento facial. Como estudiante de posgrado en el MIT, descubrió gran sesgo de género y tipo de piel en productos comercializados por empresas de renombre como IBM y Microsoft. A continuación, fue coautora del influyente documento Gender Shades con el Dr. Timnit Gebru, y del documento de seguimiento Actionable Auditing con la agente Deb Raji, que puso en aprietos a Amazon. Como artista, empezó a crear piezas para humanizar los daños de la IA, con su premiado poema visual de palabra hablada "AI, Ain't I A Woman?", que se mostró en exposiciones de todo el mundo. Esta combinación de arte e investigación consiguió el apoyo de cientos de otros investigadores para abogar por una tecnología más equitativa y responsable. La exclusión y la discriminación se extienden mucho más allá de las tecnologías de reconocimiento facial y afectan a todo, desde los servicios sanitarios y financieros hasta el empleo y la justicia penal.
Cuanto más profundo excavemos, más restos de prejuicios encontraremos en nuestra tecnología. No podemos permitirnos mirar hacia otro lado esta vez porque lo que está en juego es simplemente demasiado alto. Nos arriesgamos a perder los logros obtenidos con el movimiento de derechos civiles y otros movimientos por la igualdad bajo la falsa suposición de la neutralidad de la máquina.
En los EE.UU., un algoritmo de salud ampliamente utilizado concluye falsamente que los pacientes negros son más saludables que los pacientes blancos igualmente enfermos. La IA que se usa para determinar las decisiones de contratación ha demostrado amplificar la discriminación de género existente. Los organismos de aplicación de la ley están adoptando rápidamente tecnologías de predicción policial y de evaluación de riesgos que refuerzan las pautas de discriminación racial injusta en el sistema de justicia penal. Los sistemas de IA dan forma a la información que vemos en los medios de comunicación social y pueden perpetuar la desinformación cuando se optimizan para priorizar el contenido que atrae la atención. Los ejemplos son interminables.
No podemos dar por sentados los sistemas. Aunque la tecnología puede darnos conectividad, comodidad y acceso, debemos conservar el poder de tomar nuestras propias decisiones. ¿Estamos cambiando la comodidad por los grilletes? La gente debe tener voz y elegir cómo se utiliza la IA.
En los Estados Unidos, los equipos que diseñan todos los sistemas no son inclusivos. Menos del 20% de las personas en la tecnología son mujeres y menos del 2% son personas de color. Además, uno de cada dos adultos (eso es más de 130 millones de personas) tiene su cara en una red de reconocimiento facial. Esas bases de datos pueden ser buscadas y analizadas por algoritmos no auditados sin ninguna supervisión, y las implicaciones son masivas.
Más allá de las prácticas inclusivas y éticas en el diseño y la construcción de algoritmos, exigimos que haya más transparencia cuando se utilicen los sistemas. Necesitamos saber cuáles son los insumos y cómo se obtuvieron, cómo se mide el rendimiento, las directrices para las pruebas y las posibles implicaciones, riesgos y defectos al aplicarlos a situaciones de la vida real. Esto no es una preferencia de privacidad. Es una violación de nuestras libertades civiles, en la que las corporaciones están ganando dinero a costa de las caras de la gente y se pone en riesgo la vida de las personas sin su consentimiento.
A veces respetar a la gente significa asegurarse de que sus sistemas son inclusivos como en el caso de usar la IA para la medicina de precisión. A veces significa respetar la privacidad de las personas al no recoger ningún dato. Y siempre significa respetar la dignidad de un individuo".
Como organización que pone de relieve cuestiones críticas en los sistemas comerciales, nos enfrentamos constantemente al riesgo de represalias e intentos de silenciamiento. Mientras que algunas empresas reaccionan positivamente a nuestros hallazgos, otras no lo hacen. Afortunadamente, hemos crecido como movimiento y contamos con el apoyo de los investigadores de IA más respetados, organizaciones y miles de "Agentes del Cambio" que creen en nuestra misión.
Hemos visto el poder de la colaboración en un enfrentamiento con Amazon después de que intentara desacreditar la investigación revisada por pares. Tras las refutaciones de la Dra. Joy Buolamwini (publicadas aquí y aquí), más de 70 investigadores defendieron este trabajo y el Instituto Nacional de Estándares y Tecnología publicó un estudio exhaustivo que mostraba un amplio sesgo racial, de género y de edad en los algoritmos de reconocimiento facial que validaba las preocupaciones planteadas por la investigación.
Si crees que todos merecemos una IA equitativa y responsable, entonces también puedes convertirte en un agente de cambio. Ya seas un entusiasta, ingeniero, periodista o político, te necesitamos. Contáctanos o actúa ahora.