ActuarAcerca deEnfoquebibliotecaCONTACTOinvestigaciónproyectoscharlaspolítica/defensaexposicioneseducaciónPRENSA
Done. La justicia racial requiere justicia algorítmica. Apoya el movimiento.

LA TECNOLOGÍA DEBERÍA SERVIRNOS A TODOS. NO SÓLO A UNOS POCOS PRIVILEGIADOS.

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

Únete al movimiento
Nuestra biblioteca
Investigaciónproyectosconversacionespromociónexposicioneseducaciónpresione

Combinamos el arte y la investigación para iluminar las implicaciones sociales y los daños de la IA.

Ver video

En el mundo actual, los sistemas de IA se utilizan para decidir a quién se contrata, la calidad del tratamiento médico que recibimos y si nos convertimos en sospechosos en una investigación policial. Si bien estas herramientas son muy prometedoras, también pueden perjudicar a las personas vulnerables y marginadas, y amenazar los derechos civiles. Los sistemas de IA no controlados, no regulados y, a veces, no deseados, pueden amplificar el racismo, el sexismo, el hábito y otras formas de discriminación.

La misión de la Liga de Justicia Algorítmica es concienciar sobre los impactos de la IA, equipar a los defensores con investigaciones empíricas, construir la voz y la elección de las comunidades más afectadas, y galvanizar a los investigadores, los responsables políticos y los profesionales de la industria para mitigar los daños y los sesgos de la IA. Estamos construyendo un movimiento para cambiar el ecosistema de la IA hacia una IA equitativa y responsable.

Ver video
Máscara blanca del sesgo codificado.
foco

Sesgo codificado: un documental

Conozca cómo empezó la Liga de la Justicia Algorítmica en la película Coded Bias. La película destaca las historias de personas que han sido impactadas por la tecnología dañina y muestra a mujeres pioneras que hacen sonar la alarma sobre las amenazas que la inteligencia artificial representa para los derechos civiles. El documental se estrena en el Festival de Cine de Sundance en enero de 2020.

Aprende más.
Logotipo del NY Times Logotipo de Bloomberg Business.El logo de Forbes.Logotipo de TIMEEl logo de la fortuna.Logotipo de TED.El logotipo de Wired.El logo del Telegraph
Actúa

Conviértase en un agente del cambio.

Conviértase en un agente de la Liga de Justicia Algorítmica y ayúdenos a crecer el movimiento hacia una IA equitativa y responsable.

Actúa

Solicite la auditoría algorítmica

Actúa

Solicite el conjunto de datos para la investigación

Actúa

Organize un taller

Actúa

Corre la voz

Actúa

Reporte los daños y prejuicios de la IA

Actúa

Haga una donación

Actúa

Corre la voz

Actúa

Reporte los daños y prejuicios de la IA

Actúa

Haga una donación

creemos que

El respeto no se trate sólo de ser reconocido o no reconocido.

También se trata de tener agencia en relación con los procesos que rigen nuestras vidas. Como las empresas, los gobiernos y los organismos de aplicación de la ley utilizan la IA para tomar decisiones sobre nuestras oportunidades y libertades, debemos exigir que se nos respete como personas.

Manténgase informado

ver nuestra BIBLIOTECA
Prensa/medios de comunicación
Un estudio federal confirma el sesgo racial de muchos sistemas de reconocimiento facial
Leer más
política/promoción
Tecnología de reconocimiento facial Audiencia (Comité de Supervisión y Reforma)
Leer más
investigación
Tonos de género: Descubriendo grandes sesgos de género y tipo de piel en los productos comerciales de IA
Leer más
Compromiso de Cara Segura

Pídele a tu compañía que tome la promesa de la cara segura.

La Promesa de Cara Segura provee a las organizaciones de pasos procesables y medibles hacia la IA responsable. La promesa prohíbe la aplicación letal del reconocimiento facial, ya que el desarrollo de una IA equitativa incluye detener y prevenir su uso dañino. Cuando tu organización hace la Promesa de Cara Segura, se compromete a:

Mostrar el valor de la vida, la dignidad y los derechos humanos

Abordar el sesgo perjudicial

Facilitar la transparencia

Incorporar la responsabilidad y la rendición de cuentas en las prácticas comerciales cotidianas

tomar el compromiso

en las noticias

ver nuestra BIBLIOTECA
PRENSA/MEDIOS
La Amazon aprendió sobre la tecnología facial de la IA por el ganador del premio Turing
Leer más
PRENSA/MEDIOS
Coded Bias apareció en las ocho películas imprescindibles de Inc para Leaders en 2020
Leer más
PRENSA/MEDIOS
La inteligencia artificial tiene un problema con el género y los prejuicios raciales
Leer más

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

¡Gracias! Su presentación ha sido recibida!
¡Uy! Algo salió mal al enviar el formulario.

Únete a la Liga de la Justicia Algorítmica en el movimiento hacia una IA equitativa y responsable.

La tecnología debe estar al servicio de todos. No sólo a unos pocos privilegiados.

¡Gracias! Su presentación ha sido recibida!
¡Uy! Algo salió mal al enviar el formulario.

@AJLUNITED

SÍGUENOS EN LA SECCIÓN SOCIAL
Ver en twitter
Ver en twitter
Vista del programa
Vista del programa
Vista del programa
Ver en twitter
hashtags

#CodedBias #EquitableAI #AccountableAI #InclusiveAI #ResponsableAI #EthicalAI #AIbias #AIharms #MachineBias #ArtificialIntelligence #InclusiveTech #AJL #AlgorithmicJusticeLeague

Navegue por
  • Inicio
  • Actúa
  • Acerca de
  • Foco 
  • Biblioteca
  • Aprende másPolítica de privacidad
nuestra biblioteca
  • Investigación
  • Proyectos
  • Charlas
  • Política/Defensa
  • Exposiciones
  • Educación
  • Presiona
Contáctanos
  • Ponte en contacto
  • Comparta su historia
  • Periodistas
©Algorithmic Liga de la Justicia 2023
Powered by Casa Blue