ActuarAcerca deEnfoquebibliotecaCONTACTOinvestigaciónproyectoscharlaspolítica/defensaexposicioneseducaciónPRENSA

¿Qué es la tecnología de reconocimiento facial?

El "reconocimiento facial" se refiere a un grupo de tecnologías que realizan tareas en los rostros humanos. Se basa en la inteligencia artificial (IA) para aprender los patrones de un rostro humano. El sistema de IA utiliza un modelo de aprendizaje automático para aprender de un conjunto de datos de rostros humanos. Estos conjuntos de datos pueden ser compilados usando los datos obtenidos de las plataformas de medios sociales y de millones de otros sitios web y puede incluir desde unos pocos miles a miles de millones de imágenes.

El reconocimiento facial puede ser utilizado por el gobierno y el sector privado de diversas maneras. El proceso comienza con la captura de una imagen facial. Su rostro puede ser capturado casi en cualquier lugar, incluso por cámaras en lugares públicos y privados (edificios de oficinas, farolas, semáforos, gasolineras, restaurantes). Nuestros rostros son la parte más visible de nuestros cuerpos. A diferencia de las huellas dactilares o las pruebas de ADN, el reconocimiento facial no requiere ningún contacto físico para identificar a alguien.

‍

¿Hay una cara?

Primero: Detección de la cara

La tarea más básica es detectar la presencia de tu cara en una imagen o video. Sin embargo, el simple hecho de detectar la presencia de un rostro no dice nada sobre ese rostro sin algunos pasos adicionales.

Después de que su cara es detectada, las máquinas pueden realizar una de varias tareas.

Verificación facial    

Su cara puede ser comparada por un dispositivo con una sola imagen almacenada para determinar si es una coincidencia, por ejemplo para desbloquear su teléfono o para abordar un avión.

Identificación facial   

Su rostro puede compararse con una base de datos de rostros - por ejemplo, una base de datos de fotos de carnets de conducir o de fotos de delincuentes - para ver si coincide con un posible sospechoso u otra persona de interés.

Clasificación de los atributos faciales

Su rostro puede ser analizado en un intento de adivinar atributos demográficos como su edad, sexo o etnia. Este proceso también puede detectar accesorios y vello facial.

Reconocimiento del efecto facial

Sus expresiones faciales pueden ser analizadas en tiempo real o en video en un intento de etiquetar sus emociones u otras cualidades internas, incluyendo rasgos de personalidad, salud mental e inteligencia. Sus expresiones también pueden ser analizadas en un intento de etiquetar características aún más complejas como la sexualidad, las creencias políticas o la potencial criminalidad.

A continuación se presentan ALGUNOS CASOS DE USO DEL RECONOCIMIENTO FACIAL y los daños potenciales que se asocian con cada tipo de uso.
CASO DE USO

Aplicación de la ley

Los agentes de represión pueden utilizar el reconocimiento facial para identificar a posibles sospechosos y realizar una vigilancia masiva, que incluye la vigilancia y el seguimiento de las personas.

En Florida, Willie Allen Lynch fue identificado por reconocimiento facial como sospechoso usando una foto de celular. El sistema dio una coincidencia de baja confianza pero aún así fue usado para procesar y condenar a Lynch en 2016. Nada de esto fue revelado por la fiscalía a la defensa, lo que podría haber ayudado en el caso de Lynch. Fue condenado a 8 años de prisión.

En todo el país, los departamentos de policía están utilizando sistemas de reconocimiento facial que incluyen más de 117 millones de adultos. Estos sistemas han sido utilizados para:

  • Identificar a las personas que han sido detenidas o arrestadas

  • Compara las fotos de los cajeros automáticos con la base de datos de licencias de conducir y

  • Escanea a la gente que pasa por una cámara de vigilancia

En abril de 2019, un sistema de reconocimiento facial identificó erróneamente a Amara Majeed, estudiante de la Universidad de Brown, como sospechoso de terrorismo en los atentados con bombas en la iglesia de Pascua de Sri Lanka. Aunque la policía emitió posteriormente una declaración en la que corregía el error, la Sra. Majeed seguía recibiendo amenazas de muerte, se enfrentaba a un escrutinio policial adicional y perdía tiempo en la escuela.

Estos son ejemplos de identificación facial.

La mayoría de los organismos policiales no tienen una política de uso público, no han recibido la aprobación legislativa de la política y no han auditado sus sistemas de reconocimiento facial para detectar el uso indebido.

daños

Aplicación de la ley

1. Libertades y derechos

La vigilancia de los rostros plantea importantes riesgos para las libertades civiles, y estos riesgos aumentan a medida que la tecnología se vuelve más precisa. La vigilancia de rostros amenaza derechos como la privacidad, la libertad de expresión, la libertad de asociación y el debido proceso. A nivel práctico, esto afecta a la forma en que vivimos y trabajamos, especialmente en lo que se refiere a nuestra capacidad de entrar y expresar nuestras opiniones en los espacios públicos. Hay una razón por la que la vigilancia ha sido una herramienta de los regímenes autoritarios y la vigilancia facial corre el riesgo de amplificar este efecto aún más en el siglo XXI.

Los efectos de la vigilancia facial también son discriminatorios porque plantean un mayor riesgo para las libertades civiles de las comunidades insuficientemente representadas que ya están excesivamente vigiladas (inmigrantes y personas de color) y son más vulnerables a los ataques de la policía.

2. Identificación errónea

Estos sistemas funcionan con tasas de inexactitud más altas en grupos subrepresentados como los jóvenes, los ancianos, las mujeres y las personas de piel más oscura. Esto aumenta el riesgo de que las personas de estos grupos sean identificadas erróneamente como sospechosos criminales. La identificación errónea puede tener graves consecuencias para la libertad y el sustento de una persona, en particular si alguien se ve obligado a pasar por el sistema de justicia penal y demostrar su inocencia. Incluso cuando los sospechosos mal identificados son puestos en libertad, pueden perder sus empleos y seguir enfrentándose a amenazas de muerte y a abusos en línea si se llega a conocer la detención.

Además de ser inexactas (sesgadas), estas tecnologías son discriminatorias porque afectan de manera desproporcionada a determinados grupos.

"El reconocimiento facial puede ser increíblemente dañino cuando es inexacto e increíblemente opresivo cuanto más preciso sea." - Woodrow Hartzog (Profesor de Derecho y Académico)

CASO DE USO

EMPLEO

Los empleadores están usando tecnología de análisis facial que incorporan reconocimiento de emociones en los videos de los candidatos para informar las decisiones de contratación. El sistema evalúa los movimientos faciales del candidato, los patrones de habla y otros indicadores durante la entrevista.

Basándose en estos factores, el sistema puede puntuar a los candidatos con medidas internas como la confianza, el coeficiente intelectual del tipo de personalidad e incluso la criminalidad, además de atributos demográficos como la edad, la etnia y el género.

Una compañía llamada HireVue proporciona a las empresas una plataforma para entrevistar a los posibles candidatos a un puesto de trabajo en la cámara y utilizar la inteligencia artificial para calificar sus imágenes de vídeo de acuerdo con indicaciones verbales y no verbales.

Este es un ejemplo de reconocimiento del efecto facial.

daños

empleo

1. Discriminación

Los sistemas de contratación se entrenan con datos de los mejores. Estos datos a menudo reflejan patrones discriminatorios de contratación y promoción que han favorecido a los hombres sobre las mujeres y han limitado la diversidad racial.

Si los datos favorecen a un grupo basado en el género o la raza, entonces el sistema generará recomendaciones a favor del grupo al proporcionar recomendaciones para la contratación.

2. Pérdida de oportunidad

Los patrones de contratación, aumentados por el riesgo de reconocimiento facial, afectan negativamente a los derechos económicos y a las oportunidades de trabajo de las mujeres y las personas de color. Estos sistemas también discriminan a las personas que tienen discapacidades que afectan a sus expresiones faciales y a su voz.

3. Desigualdad social

No hay base científica para inferir características interiores a partir de las expresiones faciales de una persona. Esto fue confirmado por un estudio de 2019 estudio de más de mil documentos sobre el tema. Permitir estas suposiciones infundadas aumenta el desequilibrio de poder entre los empleadores y los solicitantes, y se corre el riesgo de interpretar las diferencias físicas irrelevantes entre las personas como una justificación para los resultados discriminatorios.

CASO DE USO

VIVIENDA

Los propietarios de todo el país han tratado de instalar sistemas de entrada con reconocimiento facial para que los inquilinos entren en los edificios.  

En mayo de 2019, la Coalición de Derechos de los Inquilinos de los Servicios Legales de Brooklyn presentó (y ganó) una oposición para bloquear la instalación de un sistema de entrada de reconocimiento facial en dos edificios de apartamentos de alquiler estabilizado. El propietario no había obtenido el consentimiento, no había evaluado la precisión del rendimiento del sistema en cuestión y no había proporcionado a los inquilinos ninguna garantía de privacidad de los datos o de la confidencialidad de los mismos.

Este es un ejemplo de verificación facial.

Daños

Vivienda

Es posible que los propietarios no obtengan el consentimiento afirmativo y no se aseguren de que el sistema de reconocimiento facial funcione con precisión para todos los grupos de inquilinos, incluidas las mujeres, los niños, los ancianos y las personas de color... especialmente teniendo en cuenta la intersección de estos grupos (por ejemplo, las mujeres de color).

Esa tecnología también puede ser utilizada por el propietario para acosar y vigilar a los inquilinos. No hay leyes que regulen el uso de estos datos, por lo que también existe el riesgo de que los datos faciales recogidos puedan ser compartidos con el gobierno o la policía.

Estos riesgos amenazan la privacidad, la seguridad y otros derechos de los inquilinos. Estos riesgos aumentan porque afectan a las personas en sus casas, un espacio sagrado y legalmente protegido donde las personas tienen más derecho a disfrutar de sus derechos de privacidad y a estar libres de intrusiones.

CASO DE USO

ESCUELAS

El reconocimiento facial se está usando en las escuelas primarias para tomar asistencia, permitir el acceso a las instalaciones y controlar el comportamiento, la atención y otras características emocionales de los estudiantes.

Este es un ejemplo de verificación facial y clasificación de atributos faciales.

El reconocimiento facial se utiliza en los campus universitarios para vigilar el movimiento de los estudiantes en los espacios compartidos, hacer un seguimiento de la asistencia a clase y evitar que personas no autorizadas entren en el campus.

En Universidad de Duke y la Universidad de Chicago, se han recogido grabaciones de estudiantes en espacios públicos sin el consentimiento afirmativo de los estudiantes. Aunque el conjunto de datos se ha retirado desde entonces, se utilizó anteriormente para probar o mejorar los sistemas de reconocimiento facial en todo el mundo, incluso por investigadores para mejorar la vigilancia del gobierno chino.

Este es un ejemplo de verificación e identificación facial.

daños

escuelas

1. Discriminación

Hay mayores riesgos de que los FRT puedan identificar erróneamente a los niños de color como ausentes o que de alguna manera rompen las reglas. Cuando se combina con el racismo institucional, esto puede llevar a situaciones en las que el personal cree desproporcionadamente en el sistema por encima del niño. Los riesgos de identificar erróneamente a un niño incluyen no sólo interrumpir el entorno de aprendizaje del niño, sino también causar un grave daño psicológico.

2. Derechos del niño

Al hacer que los niños se sientan observados, el reconocimiento facial desalienta a los niños a ser espontáneos o juguetones y a asociarse libremente con los compañeros de su elección... Esto crea efectivamente las condiciones de censura, que afectan a los derechos del niño y tienen consecuencias negativas para el aprendizaje y el desarrollo. Los derechos humanos son fundamentales para todos, pero especialmente para los niños, cuyas facultades se siguen desarrollando a través de la autoexpresión.

3. Vigilancia en el campus

El reconocimiento facial amenaza la libertad académica y las libertades civiles. Posiciona la vigilancia del gobierno si las universidades son estatales. Incluso en el caso de las universidades privadas, la universidad sigue funcionando como una institución de autoridad en la vida de los estudiantes y del profesorado.

Al igual que en otros casos de uso, estos riesgos se agravan en el caso de los grupos que tienen más probabilidades de ser identificados erróneamente o de ser objeto de vigilancia.

A nivel local


En el 2019, San Francisco se convirtió en la primera ciudad del país en prohibir al gobierno local el uso de la tecnología de vigilancia facial. Oakland, Berkeley y Somerville, Massachusetts pronto siguieron el ejemplo. Su vecina Cambridge se ha convertido en la última ciudad en prohibir el reconocimiento facial, lo que demuestra el impacto dominó del éxito de la defensa en una ciudad para influir en el cambio en las comunidades vecinas. Los legisladores también han presentado proyectos de ley similares en ciudades de todo el país, como Portland, Oregón y Portland, Maine.

Estas ciudades proporcionan ejemplos de cómo la gente puede unirse y ganar cuando se trata de prohibir la vigilancia facial. Sin embargo, estos proyectos de ley no se aprueban sin luchar. Para ayudar a los ciudadanos a avanzar, la Fundación de Fronteras Electrónicas (EFF) creó la Acerca de Face campaña para proporcionar recursos de organización y creación de capacidad a los residentes de todo el país para pedir que se ponga fin al uso de la vigilancia facial por parte de los gobiernos locales.

Le animamos a que tome medidas uniéndose al movimiento "About Face" (Acerca de la cara) y conectando con otros residentes locales preocupados en su área. Una vez que te hayas unido, la EFF ha compilado un juego de herramientas que ayuda a los grupos de ciudadanos a prepararse para las reuniones con los legisladores locales y los asociados de la comunidad. Este conjunto de herramientas contiene recursos que facultan a los miembros de la comunidad para luchar contra la vigilancia de la cara y ganar.

A nivel estatal

En octubre de 2019 la Legislatura del Estado de California aprobó una moratoria de 3 años prohibiendo el uso del reconocimiento facial en las cámaras corporales de la policía. Oregón y New Hampshire han aprobado prohibiciones similares. La fundadora de la AJL, Joy Buolamwini, testificó recientemente en apoyo de un proyecto de ley pendiente en la legislatura estatal de Massachusetts abogando por este enfoque.

Habida cuenta de la amenaza que supone para las libertades civiles la vigilancia de los rostros y los defectos de estos sistemas que afectan de manera desproporcionada a las personas de color, AJL ha pedido una moratoria que detenga el uso del reconocimiento facial por parte del gobierno a menos que y hasta que existan limitaciones y protecciones legales apropiadas.

La ACLU de Massachusetts también está apoyando esta moratoria como parte de su Pulse la pausa en la campaña de vigilancia facial. La campaña busca educar al público sobre los riesgos para las libertades civiles de la vigilancia de la cara y proporciona una plataforma para que los residentes de MA tomen medidas para contactar con sus legislaturas en apoyo del proyecto de ley.

Le animamos a que se involucre contactando con sus representantes locales y expresando su apoyo a las leyes que detendrían el uso de la vigilancia facial por parte de las autoridades gubernamentales de su estado. Los esfuerzos en California y Massachusetts demuestran que el progreso es posible. Las similitudes entre los dos proyectos de ley destacan que el esfuerzo en un estado puede informar la legislación y crear impulso en otros.

A nivel federal

Actualmente no hay leyes federales que regulen la tecnología de reconocimiento facial ni a nivel comercial ni a nivel gubernamental.

Desde junio de 2019 se han celebrado tres (3) audiencias públicas ante el Comité de Supervisión y Reforma de la Cámara de Representantes para examinar la forma en que el uso empresarial y gubernamental de la tecnología de reconocimiento facial repercute en los derechos y libertades civiles, en los derechos de privacidad y en otras implicaciones que obligan a supervisar y regular la forma en que se utiliza esta tecnología.

Hay esfuerzos bipartidistas en el Congreso para restringir el uso de la tecnología de reconocimiento facial por parte del gobierno federal. Proponentes desde Alexandria Ocasio-Cortez (D-NY) a Jim Jordan (R-OH) se han unido para pedir una reforma legislativa. Mientras que algunos defensores están presionando sobre las preocupaciones de nuestros derechos y libertades civiles, otros se centran en nuestro derecho a la privacidad. A pesar de las diferencias en el enfoque, hay una preocupación real en ambos lados.
‍

Actualmente, La Casa está explorando una moratoria sobre la financiación del gobierno para cualquier nuevo uso de la tecnología de reconocimiento facial por parte de las agencias federales. De acuerdo con nuestra posición a nivel estatal, creemos que los llamamientos para tal legislación no van lo suficientemente lejos. Teniendo en cuenta lo que sabemos sobre la falta de supervisión y salvaguardias en vigor, los abusos conocidos y el impacto desproporcionado en los grupos vulnerables y de piel más oscura, reiteramos la necesidad de una moratoria a nivel federal que prohíba todo uso gubernamental de estas tecnologías a menos y hasta que se establezcan las regulaciones adecuadas.

También tenemos que considerar seriamente la cada vez más pruebas ante el Congreso a partir de enero de 2020 pidiendo una moratoria en el uso del reconocimiento facial por parte de las empresas en contextos sensibles como la contratación y la educación, donde los derechos y oportunidades relacionados con el trabajo y nuestros hijos están en riesgo.

Las empresas y el sector privado

AJL ha creado el Compromiso de cara segura (en asociación con el Centro de Tecnología y Privacidad de Georgetown Law) como una oportunidad para que las empresas se comprometan públicamente a limitar el abuso de la tecnología de reconocimiento facial. El Compromiso de Cara Segura ofrece medidas prácticas que las empresas pueden adoptar como desarrolladores para poner en práctica los principios éticos de la IA:

  • Mostrar el valor de la vida, la dignidad y los derechos humanos

  • Dirección Sesgo Dañino

  • Facilitar la transparencia

  • Incorporar la promesa de cara segura en las prácticas comerciales

Las empresas que firman el compromiso demuestran que hay una mejor manera de hacer negocios al aceptar ser responsables de los pasos del compromiso. Igualmente notables son las empresas que han sido llamadas y sin embargo se niegan a firmar. Hacemos un llamamiento a todas las empresas que desarrollan, despliegan o utilizan tecnologías de reconocimiento facial en todas las industrias para que se presenten y firmar la Promesa de la Cara Segura.

Si usted es un ejecutivo, socio o persona de influencia dentro de su organización, le instamos a que tome medidas para crear un consenso entre sus colegas y/o los responsables de la empresa para avanzar en el compromiso.

Por favor, no dude en contactarnos si tiene alguna pregunta estratégica sobre cómo avanzar en el apoyo a la Promesa.

Educación

Escuelas de grado

En Massachusetts, una coalición de veinticuatro organizaciones de defensa liderada por la ACLU envió una carta conjunta instando a la Junta de Educación Primaria y Secundaria de Massachusetts a que se asegure de que las escuelas de todo el estado no implementen la tecnología de vigilancia de rostros. Animamos a los padres a usar esta carta como plantilla para contactar con sus propios representantes de la junta escolar o para crear una coalición entre las organizaciones locales de educación y defensa de su estado.

Campus universitarios

Luchar por el futuro en colaboración con los estudiantes por una política de drogas sensata acaba de lanzar una campaña este mes para prohibir el reconocimiento facial en los campus universitarios de los Estados Unidos. Tanto si eres estudiante, ex-alumno, profesor o empleado, puedes usar esta plataforma para contactar con tu escuela y tomar una postura contra la vigilancia facial en el campus.

La campaña también ha creó un conjunto de herramientas para que los grupos de estudiantes introduzcan resoluciones en el gobierno estudiantil y presionen a los administradores, incluyendo muchos recursos adicionales sobre el tema. Si eres un estudiante en el campus hoy, te pedimos que aproveches estos recursos para hacer retroceder y evitar que la vigilancia facial en los campus universitarios siga extendiéndose.

Vivienda

En 2019, la Coalición de Derechos de los Inquilinos de los Servicios Legales de Brooklyn presentó con éxito una moción para bloquear los esfuerzos del propietario de instalar un sistema de entrada de reconocimiento facial. Este es un ejemplo de cómo un grupo dedicado de personas puede unirse para hacer retroceder la invasión del reconocimiento facial en sus derechos en sus comunidades y hogares.

Esperamos que la victoria de los inquilinos de Brooklyn pueda servir de modelo para que otros grupos de inquilinos se opongan a la instalación del reconocimiento facial por parte de los propietarios hasta que estas tecnologías sean prohibidas en los espacios residenciales. Esta lucha está golpeando a las personas en todo el país, ya que los propietarios continúan implementando estos sistemas por motivos de seguridad y conveniencia sin ninguna protección o supervisión.

Los inquilinos pueden:

1. Empiece por contactar con un proveedor local de asistencia jurídicamuchos de los cuales pueden seguir el ejemplo de los Servicios Legales de Brooklyn en este caso y ofrecer servicios subvencionados a los inquilinos que buscan desafiar la instalación del reconocimiento facial por parte del propietario.

2. Asistir a las reuniones del consejo municipal para informar a los funcionarios sobre los peligros de esta tecnología. Los inquilinos pueden citar el ejemplo de la victoria en Brooklyn y los pasos seguidos por los abogados y los inquilinos en el proceso.

3. Contacte a los inquilinos de Brooklyn que participaron en esta victoria, quienes hicieron esfuerzos expresos para reunir documentación a lo largo de su caso con el propósito de ayudar a otros:

"Es por eso que estamos pensando en la documentación oficial y la legislación oficial para que nadie tenga que volver a pasar por la misma lucha como nosotros..” Fabian Rogers, inquilino de las Torres Atlantic Plaza, Brooklyn NY

En noviembre de 2019 el senador Cory Booker (D-NJ) presentó La Ley de supresión de los obstáculos biométricos a la vivienda para prohibir el uso del reconocimiento facial en las viviendas públicas. Si bien esta legislación es fundamental para evitar efectos perjudiciales en el acceso a una vivienda justa y asequible para las comunidades vulnerables, es importante señalar que el proyecto de ley sólo abarca las viviendas financiadas con fondos federales y, por lo tanto, no habría protegido a grupos como los inquilinos de Brooklyn aunque hubiera estado en vigor.

Esto pone de relieve la necesidad de una vigilancia continua en cuanto al alcance de las leyes propuestas y promulgadas cuando se trata de los muchos y diferentes usos del reconocimiento facial por parte del gobierno y las empresas. Las áreas en las que la ley se queda corta requerirán esfuerzos adicionales dirigidos por la comunidad y los ciudadanos para prevenir el uso perjudicial. 

Descargar el PDF

@AJLUNITED

SÍGUENOS EN LA SECCIÓN SOCIAL
Ver en twitter
Ver en twitter
Vista del programa
Vista del programa
Vista del programa
Ver en twitter
hashtags

#CodedBias #EquitableAI #AccountableAI #InclusiveAI #ResponsableAI #EthicalAI #AIbias #AIharms #MachineBias #ArtificialIntelligence #InclusiveTech #AJL #AlgorithmicJusticeLeague

Navegue por
  • Inicio
  • Actúa
  • Acerca de
  • Foco 
  • Biblioteca
  • Aprende másPolítica de privacidad
nuestra biblioteca
  • Investigación
  • Proyectos
  • Charlas
  • Política/Defensa
  • Exposiciones
  • Educación
  • Presiona
Contáctanos
  • Ponte en contacto
  • Comparta su historia
  • Periodistas
©Liga de la Justicia Algorítmica 2022
Powered by Casa Blue