El startup que ha robado millones de fotos de Facebook

Por Agencias

Una startup de reconocimiento facial está siendo utilizada por cientos de agencias de seguridad en Estados Unidos para resolver crímenes, pero por ahora se sabe muy poco sobre el software, según explica un reportaje publicado por el New York Times.

El medio estadounidense explica que el software, denominado Clearview AI, es fruto de la colaboración entre Hoan Ton-That, un australiano que se mudó a los Estados Unidos en 2007, y Richard Schwartz, un antiguo colaborador del exalcalde de la ciudad de Nueva York, Rudy Giuliani.

Los caminos de Ton-That y Schwartz se cruzaron en una conferencia en el Instituto Manhattan, un think thank de corte conservador, tal y como explica el NYT.

Kirenaga Partners, un pequeño fondo de inversión neoyorquino, también ha sido uno de los primeros inversores de Clearview AI, que ha recibido financiación también de Peter Thiel, según el artículo. Thiel, cofundador de PayPal y uno de los primeros inversores de Facebook, todavía formar parte del consejo de administración de Facebook.

Cuando un usuario sube una foto a la aplicación, que ha sido utilizada por más de 600 cuerpos de seguridad, Clearview AI rastrea coincidencias en su catálogo de miles de millones de fotos que ha extraído de diferentes redes sociales, normalmente violando los términos de servicio de esas plataformas, según explica el New York Times. A continuación muestra los resultados a quienquiera que haya hecho la búsqueda.

Clearview no ha compartido qué fuerzas de seguridad han utilizado su herramienta. La empresa también habría concedido licencias de su software a empresas privadas, según el NYT. Varios cuerpos y fuerzas de seguridad de los Estados Unidos han confirmado al periódico que han utilizado el software para ayudar a resolver crímenes que van desde el hurto en tiendas hasta el asesinato. Las fuerzas de seguridad han explicado al medio estadounidense que tienen poco conocimiento de quién ha desarrollado exactamente Clearview AI o de cómo funciona su software.

Facebook está investigando a la startup por violar sus términos de uso

Los fundadores de la app habrían empezado a comercializarla por licencias de solo 2.000 dólares, según explica el diario estadounidense. Para ello contaron supuestamente con la ayuda de personas afines al Partido Republicano de los Estados Unidos con el fin de acercarse a los cuerpos y fuerzas de seguridad, a quienes ofrecían utilizar el software por un precio muy bajo o, en algunos casos, facilitaban una prueba gratuita del software.

El código de la aplicación, según el análisis realizado por el New York Times, desvela que el software ha sido diseñado para trabajar con tecnología de realidad aumentada, lo que significa que alguien que utilice unas gafas especiales podría —en teoría— utilizar el software de Clearview AI para visualizar de manera instantánea la identidad de una persona, la dirección de su casa e incluso otros detalles privados. Ton-That explica al New York Times en el reportaje que su empresa estaba desarrollando la tecnología de realidad aumentada como un prototipo, pero que no tenía planes de lanzar al mercado.

En un comunicado, un portavoz de Facebook ha confirmado a Business Insider que la empresa estaba investigando la actividad de Clearview AI tras la denuncia.

“Rastrear y guardar información de Facebook o añadirla a una base de datos está prohibido según nuestras normas, por lo que estamos revisando las denuncias sobre esta empresa y tomaremos las medidas apropiadas si detectamos que están violando nuestras reglas”, ha explicado el portavoz.

El portavoz de Facebook no ha querido responder a la inversión de Thiel en la startup, aunque ha remitido a Business Insider una declaración del portavoz de Thiel facilitada al diario estadounidense.

“En 2017, Peter dio a un joven y talentoso fundador 200.000 dólares, que 2 años más tarde se convirtieron en acciones de Clearview AI”, explica el portavoz de Thiel, Jeremiah Hall, según el New York Times. “Esa fue la única contribución de Peter; él no está involucrado de ninguna otra manera en la compañía”.

Los representantes de otras redes sociales supuestamente utilizadas por Clearview AI, como Twitter, YouTube, Instagram o Venmo han confirmado que el rastreo y almacenamiento de imágenes publicadas en sus bases de datos violan las políticas de sus empresas. Twitter ha ido un paso más allá, asegurando al diario estadounidense que la mera utilización de las imágenes publicadas en su plataforma para el reconocimiento facial está expresamente prohibido en sus normas.

En el momento en el que el New York Times pidió a un organismo de seguridad que ejecutara el software para rastrear la fotografía de uno de sus periodistas los representantes de ClearView AI —que hasta entonces habían ignorado los correos y llamadas de los periodistas— se pusieron en contacto con sus clientes para preguntarles si habían estado hablando con los medios de comunicación.

El New York Times concluye que la compañía había estado vigilando al periodista encargado del reportaje, Kashmir Hill, y que Clearview AI puede ver qué buscan exactamente las fuerzas de seguridad con su software y cuándo lo hacen.

Las preocupaciones sobre el uso de tecnología de reconocimiento facial se han centrado durante mucho tiempo en cuestiones en torno a la privacidad y en la posibilidad de que la tecnología tenga hoy por hoy cierto sesgo racial. En diciembre de 2019 el Instituto Nacional de Estándares y Tecnología de EEUU llegó a la conclusión de que la tecnología de reconocimiento facial tenía sesgo racial, ya que normalmente tiene más dificultades para identificar a las personas que no son blancas y a las mujeres.

El pasado miércoles la demócrata Alexandria Ocasio-Cortez expresó sus temores sobre la tecnología de reconocimiento facial durante una reunión del Comité de Supervisión y Reforma de la Cámara de Representantes de los Estados Unidos.

“Esto es algo de la vida real, similar a lo que vemos en Black Mirror”, dijo Ocasio-Cortez, en referencia a la exitosa serie Netflix que a menudo se basa en los aspectos distópicos de la tecnología.

A pesar de las preocupaciones sobre la tecnología, las agencias de seguridad en todo Estados Unidos parecen haber adoptado dicha tecnología, aunque su uso no suele trascender debido a la naturaleza de las investigaciones policiales.

Pero además de los típicos riesgos y polémicas asociadas con el uso de las tecnologías de reconocimiento facial, Clearview AI presenta nuevos riesgos ya que las fuerzas de seguridad comparten imágenes potencialmente sensibles con el software. Y se tienen pocos detalles de cómo gestiona esos datos la empresa que está detrás de Clearview AI.

Los organismos policiales han tenido acceso a tecnología de reconocimiento facial durante décadas, pero la diferencia es que herramientas como Clearview AI no limitan las búsquedas a las bases de datos gubernamentales, lo que durante mucho tiempo ha resultado una limitación para los cuerpos de seguridad.

Clearview AI dice que su software es efectivo en un 75% de las ocasiones, aunque tal y como señala el New York Times, es imposible determinar la tasa de falsos positivos que tienen el servicio ya que no ha sido examinado independientemente por nadie.