A través de una combinación de arte, investigación, orientación política y defensa de los medios de comunicación, la Liga de la Justicia Algorítmica está liderando un movimiento cultural hacia una IA equitativa y responsable. Esto requiere que veamos cómo se desarrollan los sistemas de IA y que prevengamos activamente el uso perjudicial de los sistemas de IA. Nuestro objetivo es empoderar a las comunidades y galvanizar a los responsables de la toma de decisiones para que tomen medidas que mitiguen los daños y los prejuicios de la IA.
La IA equitativa requiere que las personas tengan agencia y control sobre cómo interactúan con un sistema de IA. Para tener agencia, la gente debe ser consciente primero de cómo se utilizan estos sistemas a su alrededor - por ejemplo, en aeropuertos, estadios, escuelas, hospitales y en la contratación y la vivienda - quién está involucrado en la creación del sistema - de las empresas, el gobierno y el mundo académico - y los riesgos y daños potenciales.
La IA equitativa requiere asegurar el consentimiento afirmativo de las personas sobre cómo o si interactúan con un sistema de IA. La idea aquí es que las personas entiendan exactamente cómo se usarán sus datos y si se da el consentimiento entonces sus datos se limitan sólo a ese uso permitido. Los valores por defecto para el consentimiento afirmativo son "opt-in", y si las personas eligen no opt-in, el consentimiento afirmativo requiere que no sufran ninguna penalización o negación de acceso a las plataformas o servicios como resultado. A diferencia de los términos de servicio que las compañías tecnológicas requieren que las personas hagan clic para usar sus plataformas, el consentimiento afirmativo para la IA no puede ser coaccionado.
Además de proporcionar agencia, la IA equitativa respeta la vida, la dignidad y los derechos humanos.
Considerar estos valores requiere prohibir ciertos usos gubernamentales y comerciales de la IA. Esto incluye la IA que identificaría objetivos en los que el uso de la fuerza letal es una opción (por ejemplo, cuando la policía los detiene) y el uso de la IA en la vigilancia gubernamental y dirigida por los ciudadanos. La justicia exige que impidamos que la IA sea utilizada por quienes tienen el poder para aumentar su nivel de control absoluto, en particular cuando se automatizarían patrones de injusticia de larga data, como la elaboración de perfiles raciales en la aplicación de la ley, los prejuicios de género en la contratación y la vigilancia excesiva de las comunidades de inmigrantes. La justicia significa proteger de su mal uso a los que serían el objetivo de estos sistemas.
Para que un sistema de IA demuestre una transparencia significativa debe proporcionar una explicación de cómo funciona el sistema, cómo fue diseñado y para qué propósito específico. De manera crítica, la transparencia significativa permite a la gente entender claramente las capacidades previstas y las limitaciones conocidas de la IA.
Para demostrar esta norma, las empresas y los gobiernos deben compartir información sobre cómo se utiliza la IA en sus propios procesos de toma de decisiones y cómo se vende a otros. El objetivo es que la gente entienda los riesgos sociales cada vez que se encuentra con un sistema de IA y cómo sus datos están siendo utilizados por personas con poder para tomar decisiones que les afectan. Compartir esta información puede estar respaldado por los requisitos de información que se exigen por ley o que se acuerdan mediante códigos de conducta.
Los sistemas de IA están en constante evolución. Como resultado, la IA responsable requiere una supervisión continua por parte de terceros independientes. Para apoyar la supervisión continua deben existir leyes que exijan a las empresas y organismos gubernamentales que despliegan la IA que cumplan unos requisitos mínimos, por ejemplo: mantener una documentación continua, someterse a los requisitos de auditoría y permitir el acceso a las organizaciones de la sociedad civil para su evaluación y examen.
La IA responsable proporciona a las personas que han sido perjudicadas el acceso a un remedio, lo que significa que existe una vía de trabajo para que las personas impugnen y corrijan una decisión perjudicial tomada por la inteligencia artificial. Por ejemplo, si una herramienta de IA negara incorrectamente un cheque de prestaciones sociales, el remedio consistiría en una forma fácil para el receptor de llamar la atención sobre este error y recibir el pago más los intereses por el tiempo perdido. Si se sospechara que un sistema de inteligencia artificial descalifica a un solicitante de empleo por motivos de género o raza, el remedio permitiría al solicitante descubrir cómo se tomó la decisión y proporcionaría una base para impugnar la decisión ante los tribunales.
Hay muchos términos diferentes que se han utilizado para describir un enfoque político de la IA. Queremos tener claro lo que entendemos por equitativo y responsable como algo separado de estos otros enfoques.
La noción de "IA ética" ha sido aprovechada por las grandes empresas tecnológicas -inversores y ejecutivos estratégicamente alineados con el mundo académico y el gobierno- para impulsar los principios voluntarios por encima de la regulación gubernamental. La idea de utilizar la ética no es problemática en sí misma, pero ha dado lugar a una proliferación de "Principios de la IA" con medios limitados para llevar estos principios a la práctica. Un sistema de ética de la IA permite a las empresas rendir cuentas únicamente de las normas que se han fijado para ellas mismas. La pelota está en su tejado de principio a fin. Las apelaciones a la IA ética también pueden ser aprovechadas por el gobierno para justificar políticas cuestionables que no han sido establecidas en la ley. Este es un enfoque limitado desde nuestra perspectiva porque no crea ningún requisito obligatorio ni prohíbe ciertos usos de la IA. Nuestro enfoque es más bien crear una acción que salve la brecha entre los principios y la práctica.
Si bien los llamamientos a una IA inclusiva pueden ser bien intencionados, la inclusión por sí sola no apoya el progreso hacia la mitigación del daño. A veces, el respeto de la vida, la dignidad y los derechos puede exigir que un sistema reúna más datos con consentimiento afirmativo, por ejemplo para apoyar la precisión en la medicina de precisión en diversos grupos. Otras veces, incluir más datos puede significar mejorar un sistema que somete injustamente a las poblaciones vulnerables a un escrutinio selectivo adicional. Al servicio de la "inclusión", los datos también pueden recogerse en violación de la privacidad y sin consentimiento.
Nos interesa crear sistemas robustos de IA cuando sea apropiado, cómo se recogen los datos y el propósito para el que se utilizan, pero es fundamental evaluar la inclusión. Por una parte, podemos tratar de mejorar la IA para limitar las gravísimas consecuencias de los prejuicios y la discriminación, por ejemplo, un coche que se conduce solo y que no detecta ciertos rostros de peatones o una mayor probabilidad de que la policía identifique erróneamente a las personas de piel más oscura como sospechosos de delitos. Al mismo tiempo, debemos seguir cuestionando si ese uso se apoya en nuestros valores y, por lo tanto, debe permitirse en absoluto. Si nos centramos únicamente en mejorar los conjuntos de datos y los procesos informáticos, corremos el riesgo de crear sistemas técnicamente más precisos, pero también más capaces de ser utilizados para la vigilancia masiva y para mejorar las prácticas policiales discriminatorias que permiten el uso de la fuerza letal.
Las normas técnicas no bastan para garantizar que los sistemas de IA no se desplieguen para amenazar las libertades civiles y amplificar las pautas de discriminación existentes. El uso del reconocimiento facial en la vigilancia amenaza las libertades civiles de todos los ciudadanos, incluidas la libertad de expresión, la libertad de asociación y el debido proceso.
Todas nuestras recomendaciones que apoyan la IA equitativa y responsable tienen como objetivo centrarse en el proceso incorporado en cada nivel de las operaciones sobre cualquier producto individual. Un proceso efectivo puede proporcionar un estándar fiable para la evaluación externa y ser aplicado sin importar la tecnología específica en cuestión. También permite que la voz y la elección de las personas que serán impactadas se incorporen a lo largo del ciclo de vida y las decisiones finales en relación con el uso de la IA. Las empresas y los gobiernos deben evaluar sus prácticas con respecto a estas prioridades.