Sommaire

Sommaire

L’Argentine, laboratoire mondial de la surveillance généralisée de la population

Quand on croise 1984 avec Minority report… et que l’on mixe avec l’IA pour prédire de futurs crimes et attentats…

Javier Milei. président argentin de droite nationaliste extrême, reçu en grande pompe par Emmanuel Macron en compagnie d’autres “personnalités” peu recommandables, pourtant parfois décorées de la Légion d’honneur, Elon Musk, pour ne citer que lui, Javier Milei, donc, (sans doute grand fan de S.F.) a annoncé début août la création d’une unité d’intelligence artificielle appliquée à la sécurité qui  aura “pour mission d’utiliser les algorithmes d’apprentissage automatique”, pour analyser “les données historiques sur la criminalité”, rapporte le Guardian.

Prédire les potentiels crimes et attentats

Il s’agit classiquement, ajoute le Guardian de “surveiller les réseaux sociaux, les sites Internet, les applications ainsi que le Dark-Web”, précise l’article 4 du texte, et aussi la détection “de situations de risque grave pour la sécurité, dans le cadre de la Constitution nationale et de la législation en vigueur”, ce qui se fait d’ailleurs couramment en Europe et donc en France…

Mais bien plus inquiétant, dans l’optique de mener des enquêtes, les IA utilisées (ChatGPT et consorts) pourront “identifier et comparer des images sur support physique virtuel et analyser les images des caméras de sécurité en temps réel afin de détecter des activités suspectes ou d’identifier des personnes recherchées en utilisant la reconnaissance faciale”.

Milei, ayant mal assimilé l’aspect de dénonciation du roman de Philip K. Dick, veut utiliser l’apprentissage automatique des intelligences artificielles et, classiquement, afin de développer leurs capacités, les alimenter en données, notamment les données historiques des crimes commis dans le pays (en France, par exemple, seraient utilisées les fiches “S” si performantes…).

La démarche va même plus loin, puisque les IA auront aussi accès aux données provenant “de diverses sources, [?]… afin de créer des profils de suspects ou identifier des liens entre différents cas”. Déjà dangereux à ce stade, le projet veut aussi s’appuyer sur de prétendues capacités des IA de “prédire les futurs délits et aider à les prévenir”.

Absence d’encadrement de l’usage de l’IA

Le projet, bien entendu, se caractérise par l’absence d’encadrement de l’usage de l’IA, et un grand flou quant aux groupes précis soumis à cette surveillance de masse.

Mandela Belski, directrice exécutive d’Amnesty International Argentine estime, à juste titre, que “la surveillance à grande échelle affecte la liberté d’expression car elle incite les gens à s’autocensurer ou à s’abstenir de partager leurs idées ou leurs critiques s’ils soupçonnent que tout ce qu’ils commentent, publient ou partagent est surveillé par les forces de sécurité”.

Le Centre argentin d’études sur la liberté d’expression et l’accès à l’information ajoute que “de telles technologies ont historiquement été utilisées pour ficher des universitaires, des journalistes, des politiciens et des militants, ce qui, sans supervision, menace la vie privée”.

Grand flou sur les critères pour évaluer

Rien n’est précisé en ce qui concerne la collecte des données personnelles utilisées pour enquêter ou établir les fiches de “suspects potentiels”.

Quant aux critères pour évaluer ce qui peut conduire ou non à suspecter une personne, c’est le grand flou. Pas plus de détails sur les données récupérées par les IA, qui seront, semble-t-il, prises sur les réseaux sociaux, les applications et les sites Internet…

Pour ce qui en est de la dérive dans la collecte des données, chaque mois, des milliers d’entreprises, dont les géants Google, TikTok ou encore Tinder, font appel aux services de Kochava pour parfaire leur ciblage publicitaire, or aux États-Unis, la FTC (Federal Trade Commission) accuse Kochava, par exemple, de faciliter l’identification de femmes cherchant des cliniques proposant l’IVG, identification au profit de certains États en ayant aboli partiellement ou totalement l’utilisation…

Bien entendu il n’y a pas de risques que dans une grande démocratie, la France par exemple, ce genre de pratiques soient mises en place, pourtant…

Est-ce qu’un·e élu·e au suffrage universel ou un·e représentant·e d’un parti majoritaire à l’Assemblée pourrait mettre en place ce genre de mesures ?

En ce qui concerne la reconnaissance faciale qui n’est, en principe, pas autorisée en Europe, mais appliquée récemment en France, de manière expérimentale (on sait ce qu’il en est des mesures expérimentales dont le destin est de devenir pérennes) dans le cadre des J.O., prétexte à mettre en place une surveillance généralisée de la population, y compris et en complément, à l’aide de drones, il suffira donc de légaliser et de développer les pratiques “expérimentées”.

Et si les partisans d’un ordre musclé voulaient développer un système s’appuyant sur l’IA, existe-t-il des fichiers qui pourraient servir de réservoir ?

Il y a pléthore de fichiers, en France, et bien sûr parmi eux des fichiers de police, nous informe le site libertés et droits fondamentaux , par exemple l’un d’eux le “Traitement des antécédents judiciaires (TAJ) est alimenté à la fois par la police judiciaire et par les parquets […]” et il existe en parallèle au TAJ “[…] des fichiers qui sont intermédiaires entre fichier de police et fichier judiciaire, [ce sont] de nombreux fichiers relevant proprement des administrations policières, soit à l’échelle nationale, soit à l’échelle locale, parisienne en particulier […]”.

Par exemple les fameux “fichiers de sécurité publique” qui pourvoient en fichés S.

Or dans les représentations de l’opinion publique, alimentées par les médias grand public (de la TNT par exemple) et y compris parmi les acteurs politiques, les fichés S sont des terroristes avérés.

Problème, les fiché·es S ne le sont pas au titre d’infractions qu’iels sont supposé·es avoir commises (auquel cas iels seraient traité·es par la police judiciaire) mais parce que, en quelque sorte, iels seraient susceptibles d’en commettre… (Minority le retour…).

Quant à la reconnaissance faciale ?

En 2022, l’association la Quadrature du Net a déposé trois plaintes collectives contre le ministère de l’Intérieur, dénonçant l’absence de “proportionnalité” dans l’installation de caméras, ainsi que les usages de deux gigantesques fichiers de photos, les fichiers TAJ (Traitement des Antécédents Judiciaires) qui comprend “huit millions” de visages et le fichier TES (Titres Électroniques Sécurisés) qui comporte les photos de tout demandeur de carte d’identité ou de passeport.

Dans le roman de Dick, les “présumés coupables” sont éloignés de la vie sociale et enfermés à titre préventif, et de façon définitive, dans de redoutables “centres d’enfermement”.

Rien, donc, qui ne ressemble à ce qui existe ou pourrait être mis en place de manière temporaire en France, par exemple durant les JO… : éloignement, assignés à résidence, centre de rétention, fichés S – et qu’il suffirait de maintenir voire d’amplifier.

Et pour nourrir les IA, il ne manque pas d’images sur support physique virtuel et d’images des caméras de sécurité, puisque les policiers et les gendarmes sont autorisés à utiliser des drones avec des caméras embarquées, dans certains cas pour “la prévention des atteintes à la sécurité des personnes et des biens dans des lieux particulièrement exposés” (depuis la loi du 24 janvier 2022).

Protégé·es par la Constitution et les Institutions

Bien que leur usage ait été censuré par le Conseil constitutionnel, les drones survolent les manifestations et sont utilisés par les forces de l’ordre depuis 2014, des dispositions ayant été introduites par le Conseil constitutionnel qui permettent aux policiers et gendarmes de recourir aux drones en cas d’urgence avec autorisation préalable du préfet, par exemple lors de manifestations pourtant “autorisées”…

Quant à l’encadrement de l’usage de l’IA, de celui des fichiers, de la reconnaissance faciale ou de précision sur les groupes soumis à une surveillance de masse, il n’y a pas de souci à se faire, comme nous avons pu le voir récemment, les libertés fondamentales sont garanties par la Constitution, le Président de la République, le Conseil d’État et le Conseil constitutionnel.

Bernard Foulon