Hackegem l’algoritme!

Hackegem l’algoritme!

El pasado 29 de junio participamos en el taller Hackegem l’algoritme! | Maquillatge drag contra la detecció facial organizado por el Canòdrom y Espai Jove Garcilaso.

Hicimos la presentación inicial en la que hablamos sobre qué es la inteligencia artificial, hicimos una introducción a las aplicaciones biométricas, y hablamos de los pormenores de las soluciones de reconocimiento facial.

Las aplicaciones con impacto positivo basadas en esta tecnología son múltiples (es el caso de Seeing AI, una aplicación que facilita la vida de las personas invidentes), pero las que tienen un impacto discutible también son numerosas.

Los derechos humanos vertebran nuestra sociedad y definen la sociedad que queremos ser. El uso de aplicaciones que vulneran estos derechos debería de ser escrutado. Un ejemplo lo proporciona TikTok, que intentó no mostrar vídeos de personas feas, pobres, o discapacitadas [fuente]. Según dicen, la idea era prevenir el bullying, pero el resultado es augmentar la visibilidad de un sector de la población que no representa a su globalidad. Así, se discrimina a muchas personas de la sociedad, omitiéndoles del contenido que ofrece esta red social. ¿Es esta la sociedad que queremos ser?

Otros ejemplos a discutir los proporciona China, como sistemas de videovigilancia para controlar la atención del alumnado en clase [fuente], o la vigilancia masiva que ejercen sobre su población [fuente]. Quizás estos ejemplos nos resultan lejanos, pero están más cerca de lo que pensamos.

Solo hace falta recordar la reciente noticia de Renfe de querer implantar sistemas de reconocimiento facial en sus instalaciones para ejecutar un monitorizaje constante [fuente]. Su objetivo es facilitar al cuerpo de policia su trabajo en relació a la identificación de personas buscadas. Pero, siendo ésta una tecnología emergente, debemos de ser precavidos. Son muchos los riesgos que se pueden originar de una solución como esta y reforzar nuestros derechos es la prioridad.

A día de hoy, son muchas las luchas que se han llevado en contra del despliegue masivo de soluciones basadas en el reconocimiento facial en el espacio público: manifestaciones donde la gente se tapa el rostro y se usan láseres para alterar la imagen. Una forma de confundir al algoritmo se basa en el uso de maquillaje.

En este taller contamos con la participación de una maquilladora para analizar cómo el maquillaje drag puede contribuir al hackeo del algoritmo. Para ello, usamos un documental interactivo llamado «How Normal Am I» que permite experimentar cómo la inteligencia artificial juzga tu rostro. Revela cómo los algoritmos que nos puntúan en belleza, edad, género, emoción, índice de masa corporal (IMC), e incluso esperanza de vida están encontrando cada vez más su camino en la sociedad. Tinder, por ejemplo, usa estas puntuaciones de belleza para igualar a personas que son igualmente atractivas, mientras que la predicción de su IMC a partir de solo una foto se usa en la industria de seguros de salud.

Este es un proyecto de arte de Tijmen Schep que muestra cómo los algoritmos de detección de rostros se utilizan cada vez más para juzgarte. Se realizó como parte del programa de investigación Sherpa de la Unión Europea.

¿Quieres probarlo? www.HowNormalAmI.eu