Esta camiseta fea te hace invisible para la tecnología de reconocimiento facial

hace 4 años

Esta camiseta fea te hace invisible para la tecnología de reconocimiento facial

En la novela de William Gibson Historia cero, un personaje clave se pone la camiseta más fea del mundo: una prenda de aspecto ridículo que mágicamente hace que el usuario sea invisible para el CCTV.

Ahora, a medida que los estados de todo el mundo implementan sistemas de vigilancia artificialmente inteligentes para rastrear, rastrear y monitorear a los ciudadanos, podemos encontrarnos usando camisetas feas. Investigadores de la Northeastern University, MIT e IBM han diseñado una parte superior impresa con un parche de color caleidoscópico que hace que el usuario sea indetectable para la IA. Forma parte de un número creciente de "ejemplos adversos": objetos físicos diseñados para contrarrestar el avance de la vigilancia digital.

"La camiseta contradictoria funciona en las redes neuronales utilizadas para la detección de objetos", explica Xue Lin, profesor asistente de ingeniería eléctrica e informática en Northeastern, y coautor de un artículo reciente sobre el tema. Normalmente, una red neuronal reconoce a alguien o algo en una imagen, dibuja un "cuadro delimitador" a su alrededor y le asigna una etiqueta a ese objeto.

Al encontrar los puntos límite de una red neuronal, los umbrales en los que decide si algo es un objeto o no, Lin y sus colegas han podido trabajar hacia atrás para crear un diseño que pueda confundir el sistema de clasificación y etiquetado de la red AI.

Al observar específicamente dos redes neuronales de reconocimiento de objetos comúnmente utilizadas para fines de entrenamiento, YOLOv2 y Faster R-CNN, el equipo pudo identificar las áreas del cuerpo donde agregar ruido de píxeles podría confundir a la IA y, en efecto, volver invisible al usuario.

Para ver esta inserción, debe dar su consentimiento a las cookies de redes sociales. Abrir mis preferencias de cookies.

Esta no es la primera vez que los objetos se diseñan para tratar de engañar a la inteligencia artificial. En 2016, investigadores de las universidades estadounidenses Carnegie Mellon y Carolina del Norte en Chapel Hill crearon gafas que podrían engañar a la tecnología de reconocimiento facial para clasificar erróneamente al usuario. En 2017, los investigadores estadounidenses engañaron a las redes neuronales profundas al pensar que una señal de alto era en realidad una señal de límite de velocidad de 45 mph, con algunas adiciones sutiles de graffiti.

Pero todos estos ataques adversos anteriores se han creado sobre materiales estáticos. Hacerlo para videovigilancia es mucho más complicado. "Para los ataques físicos, el verdadero desafío es no ser detectado durante toda la duración del video", dice Battista Biggio, profesor asistente de la Universidad de Cagliari, y creador del primer ejemplo de confrontación, que logró engañar a la detección de correo electrónico no deseado. "Cuando la detección se ejecuta en cada cuadro, permanecer constantemente sin ser detectado es mucho más difícil".

A diferencia de una señal de stop, las camisetas se arrugan y se arrugan cuando el usuario se mueve, por lo que el equipo tuvo que tener esto en cuenta. Los investigadores de camisetas son los primeros en tener éxito en crear un ejemplo de confrontación diseñado para imprimirse en un material en movimiento. Para hacerlo, utilizaron lo que Lin llama un "transformador", un método para medir la forma en que se mueve una camiseta y luego asignarla al diseño.

Los investigadores registraron a una persona caminando mientras usaba un patrón de tablero de ajedrez y rastrearon las esquinas de cada uno de los cuadrados del tablero para mapear con precisión cómo se arruga cuando la persona se mueve. El uso de esta técnica mejoró la capacidad de evadir la detección del 27% al 63% contra YOLOv2, y del 11% al 52% contra R-CNN más rápido.

Sin embargo, Lin dice que es poco probable que veamos estas camisetas en el mundo real. "Todavía tenemos dificultades para que funcione en el mundo real porque existe la fuerte suposición de que sabemos todo sobre el algoritmo de detección", explica. "No es perfecto, por lo que puede haber problemas aquí o allá".

De hecho, los investigadores en realidad no quieren ayudar a las personas a evadir la tecnología de vigilancia. En cambio, Lin dice que el objetivo final del equipo es encontrar agujeros en las redes neuronales para que las empresas de vigilancia puedan solucionarlos, en lugar de ayudar a las personas a evitar la detección. "En el futuro, con suerte podremos solucionar estos problemas, para que los sistemas de aprendizaje profundo no puedan ser engañados".

Cobertura de coronavirus de Mundo Informático

? ¿Cómo comenzó el coronavirus y qué sucede después?

❓ El esquema de licencia de retención de trabajo del Reino Unido, explicado

? ¿Puede Universal Basic Income ayudar a combatir el coronavirus?

? Los mejores videojuegos y juegos de mesa para parejas autoaisladas

? Siga Mundo Informático en Gorjeo, Instagram, Facebook y LinkedIn

Si quieres conocer otros artículos parecidos a Esta camiseta fea te hace invisible para la tecnología de reconocimiento facial puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir