vendredi 19 juillet 2024

París 2024, los primeros Juegos Olímpicos vigilados por inteligencia artificial

 Los Juegos Olímpicos que comienzan el próximo 26 de julio en París serán los primeros de la historia con un sistema de videovigilancia vinculado a gigantescas bases de datos, algoritmos desarrollados por inteligencia artificial y con posibilidad de reconocimiento facial. En busca de la seguridad se abre paso una nueva forma de control individual y colectivo con una capacidad sin precedentes.

Un hombre de mediana edad pasea por los alrededores del estadio en el que se están celebrando las pruebas de atletismo de los Juegos Olímpicos. Fuera todo está tranquilo, sólo se oyen los ecos de los aplausos convertidos en murmullos cuando algún saltador consigue superar el listón, al finalizar una carrera o cuando aparece en las pantallas alguna de las estrellas que competirán esa tarde.

Hasta que tres coches de Policía llegan a toda velocidad, le cortan el paso al hombre y le detienen en apenas unos segundos. Una cámara le ha grabado y un algoritmo ha dado la voz de alarma: habrá hecho algún movimiento inesperado, hay cerca algún objeto abandonado, hay una concentración de personas “no prevista”. O quizás se parece mucho a alguien que participó hace unos meses en una protesta contra el ataque a Gaza y arrojó una botella a la Policía… En un centro de mandos alguien ve la alarma, le da cierta verosimilitud y manda la orden a las patrullas más cercanas.

Represión de la protesta en Francia

No, no se trata de una escena de una serie futurista, sino que es algo que podría suceder en apenas unos días durante los Juegos Olímpicos que se celebrarán en París y otras localidades francesas. Este será el primer evento de alcance mundial bajo un sistema de videovigilancia algorítmica, conocida como VSA por sus siglas en inglés.

Así, está previsto que se unan más de 400 cámaras en los accesos a estadios, calles y transportes cercanos, a las 4.000 que ya operan en París, con el objetivo de que la seguridad tenga los menos puntos ciegos posibles durante la competición deportiva más seguida del planeta, y que está previsto que visiten alrededor de un millón y medio de turistas.

Pero lo novedoso de este sistema no está en el número de cámaras, sino en qué pasará después con lo que graben muchas de ellas. El Gobierno francés ha contratado a cuatro empresas (Videtics, Orange Business, ChapsVision and Wintics) para que sus algoritmos analicen las imágenes y puedan alertar sobre posibles atentados, agresiones, infracciones de tráfico, aglomeraciones peligrosas… El Ministerio del Interior galo defiende que todo el sistema busca únicamente la seguridad, que se respetarán los derechos fundamentales y -punto clave- que no se realizará el reconocimiento facial de las personas grabadas.

«Intrusivo y desproporcionado»

Por el contrario, 38 organizaciones de la sociedad civil en Francia alertaron de que las medidas que se pondrán en marcha son contrarias al derecho internacional y calificaron el dispositivo como “intrusivo” y “desproporcionado”.

Desde Barcelona, Felip Daza, investigador del Observatorio de Derechos Humanos y Empresas en el Mediterráneo (ODHE) señala que estos sistemas llegan a reconocer las emociones, son “muy invasivos” y “potencialmente vulneradores” de derechos como la privacidad, la libertad de expresión, y los derechos de reunión y no discriminación.

Daza apunta que está demostrado que ser grabado por cámaras de seguridad cambia el comportamiento de las personas en la calle, y que este dispositivo sin precedentes se pone en marcha en un contexto de represión de la protesta en el país, sobre todo ante las manifestaciones de los chalecos amarillos y contra los ataques a Gaza.

Ni el Comité Olímpico Español ni el internacional han querido responder a este medio sobre las dudas que plantea el sistema VSA que se empleará en los Juegos Olímpicos.

Peligros y precedentes: convertirnos en “carnets de identidad andantes”

Aunque el Gobierno, la Policía francesa y las empresas contratadas reiteran que las cámaras no estarán dotadas de reconocimiento facial, ésta es una línea roja que desde muchas organizaciones creen que puede cruzarse en cualquier momento. “El software que permite la videovigilancia basada en la inteligencia artificial puede permitir fácilmente el reconocimiento facial. Es simplemente una opción de configuración”, sostiene Katia Roux, especialista de tecnología de Amnistía Internacional en Francia.

Más allá de la posibilidad técnica, lo cierto es que Francia ya ha desarrollado el reconocimiento facial y sistemas “predictivos” en numerosas localidades, según el mapeo de la plataforma Tecnopolice. También resulta controvertida la presencia en más de 200 localidades francesas de las cámaras de Briefcam, una empresa de origen israelí.

Organizaciones francesas han denunciado durante años que su sistema de VSA permite activar el reconocimiento facial en apenas unos clicks, tal y como puede verse en su propio manual de instrucciones. Actualmente, Briefcam también ofrece sus sistemas de vigilancia en numerosos barrios palestinos de la Cisjordania ocupada, de acuerdo a las investigaciones de Who profits.

‘Safe city’

Niza sería el máximo exponente de la idea de la safe city (ciudad segura) gracias a la videovigilancia combinada entre cámaras en espacios públicos, drones y las propias patrullas de policía. Todas esas imágenes se envían a una base de datos, donde un programa dotado de reconocimiento facial pone a trabajar algoritmos desarrollados por inteligencia artificial comparándolos con bases de datos descomunales.

Y ahí es donde radica otro de los problemas: las organizaciones contrarias a estos dispositivos señalan que, al ser alimentados por las informaciones policiales, los “prejuicios humanos” sobre etnia, color de piel, barrio de residencia, etc. se trasladan a esos algoritmos dando pie a una discriminación de forma automatizada. Es decir, que al supuesto señor al que le sorprenderá la patrulla fuera del estadio tiene muchas más posibilidades de tener la piel oscura y determinada vestimenta…

Sobre esta capacidad de control sin precedentes, organizaciones policiales como Scotland Yard aseguran que su uso supone un ‘antes y después’ en la eficacia contra la lucha contra la delincuencia. Mientras, desde la organización inglesa Big Brother Watch consideran que “nos convierten en carnets de identidad andantes”.

Una excepción donde cabe todo

Francia autorizó la videovigilancia en 2019, pero no fue hasta la primavera de 2023 cuando el Parlamento francés dio luz verde a incorporar la inteligencia artificial en los sistemas de seguridad de forma experimental. Los Juegos Olímpicos se convertirán así en una suerte de laboratorio donde comprobar estos sistemas, y para ello han aprobado una ley que permitiría hasta 2025 el uso del reconocimiento facial (ese que aseguran que no van a utilizar), siempre que sea bajo el marco de “seguridad nacional”. Una excepción que las organizaciones contrarias a estos sistemas temen que se convierta en costumbre.

Además, la excepción de la seguridad es lo que permitiría a Francia no ir en contra de las leyes de la Unión Europea. Porque si en un principio la normativa comunitaria prohibió cualquier tecnología de vigilancia masiva a través de inteligencia artificial, en diciembre de 2023 abrió la puerta a su uso por ese motivo. “La UE cada vez se escuda más en la priorización de la seguridad y todo apunta al uso de este tipo de vigilancia de manera permanente”, lamenta Carlos de las Heras, portavoz de Amnistía Internacional en España.

No sólo en Francia

Por supuesto, esta cuestión no es algo exclusivo de Francia o la Unión Europea, y en otros países como Reino Unido, China, Rusia o Brasil ya han puesto en marcha sistemas de vigilancia basada en algoritmos y con capacidad de identificación individual. De hecho, Heras recuerda que el reconocimiento facial ya se puso en marcha en Estados Unidos durante las protestas del Black Lives Matter para identificar a manifestantes pacíficos.

Al mismo tiempo, subraya que el uso de esta tecnología puede desembocar en la elaboración de perfiles basados en la etnia o el origen nacional “extremadamente discriminatorios” y tienen un posible “efecto de autocensura” que haga que muchas personas dejen de participar en cualquier protesta por miedo a las consecuencias derivadas de su identificación.

Por su parte el investigador de ODHE, Carlos Díaz adelanta que “estos Juegos Olímpicos van a ser un proceso de no retorno. Se pondrán en marcha sistemas de vigilancia muy sofisticados que han venido para quedarse”. En las próximas semanas veremos qué deportistas consiguen hacerse con una medalla en los Juegos de París, y quizás en algo más de tiempo sepamos cómo la cita olímpica cambió para siempre la forma en que los Estados enfrentan a las amenazas a su seguridad, y al mismo tienen también capacidad para vigilar y reprimir cualquier forma de protesta.