Marseille Infos Autonomes / lundi 11 décembre 2017
Quand Minority Report s’invite à Marseille ! À partir de 2018, la mairie se lance dans l’aventure des mal-nommés « algorithmes prédictifs. »
La mairie de Marseille se targue de transformer la ville en une Smart City. Tout comme votre smartphone enregistre méthodiquement toute vos données pour les revendre aux plus offrants, et ainsi améliorer la prestation publicitaire vous visant, désormais la ville veut centraliser toutes les données qu’elle enregistre pour nous offrir une meilleure prestation sécuritaire.
Vidéosurveillance, infos RTM, réseaux sociaux, rapports de police, et, si tout va bien, des capteurs sonores ! [1] Voilà entre autres les joyeusetés sensées être compilées et traitées par la magie du Big Data pour « prédire » les lieux et la nature de potentiels « troubles à l’ordre publique » avant qu’ils ne se produisent. Le tout piloté par Engie pour la modique somme de 1,5 million d’euros.
Rien de nouveau sous le soleil me direz-vous. Plus d’investissement dans la surveillance, tant dans la rue qu’en ligne, moins dans les services sociaux. Inquiétude évidente face à la protection (ce qu’il en reste) des données personnelles, etc. La nouveauté vient de ces fameux « algorithmes prédictifs, » qui loin de prédire le future ont une fâcheuse tendance à répliquer les travers du passé.
Alors que leurs implémentation en Europe est récente (à ma connaissance), cela fait déjà plusieurs années que ce type de logiciels est utilisé par de nombreux départements de police aux États-Unis. Au-delà du problème même de l’emploi de ce type de technologie à un usage répressif, la pratique a révélé que ces logiciels intensifie la répression de communautés déjà ciblées de façon disproportionnée par la police, tel que les personnes racisées, sous couvert d’une « impartialité numérique. » [2]
Il existe deux grandes catégories d’algorithmes prédictifs policier, ceux qui évaluent des critères géographiques, et ceux qui créent des listes noires d’individus à surveiller. Dans cette deuxième catégorie, nul besoin d’avoir un casier, mais simplement d’être jugé par l’algorithme comme à risque (lieu de résidence, réseau d’amis, statut social, couleur de peau ?). [3] Bien entendu les critères exacts utilisé ne sont pas rendu publics. Dans les deux cas le nœud du problème est le même, c’est le fait que le logiciel est alimenté par le passé. [4]
Dans le cas des dispositifs géographiques, que la ville de Marseille veut implémenter, l’essentiel des données que le logiciel a à sa disposition est composé des données d’intervention policières. Étant donné que celles-ci ont tendance à viser certaines personnes / zones géographiques plus que d’autres (cf contrôles au faciès), le logiciel va « apprendre » à prédire un besoin policier plus important dans ces zones. En d’autres termes, vu que l’on nourrit le logiciel d’information raciste, classiste, et j’en passe, le logiciel devient lui-même raciste, classiste et ainsi de suite.
Par exemple, une étude sur le fonctionnement de PredPol, un logiciel utilisé par la police d’Oakland à montré dans une simulation « ce qui se passerait si la police avait agit directement sur les points chauds de PredPol chaque jour et augmentée les arrestation en conséquent : le programme entra dans une boucle de rétroaction, prédisant de plus en plus de crimes dans les quartiers où la police se rendait le plus souvent. Cela causant l’envoi d’encore plus de forces de police. » [5]
En 2015, la police d’Oakland décida d’abandonner l’usage des algorithmes prédictifs, les jugeant trop néfastes ! [6]
Alors quand on déclare que « [l]’objet de cette plateforme technologique Big Data est de croiser l’analyse d’une situation passée avec un contexte présent pour anticiper les risques et préparer les interventions des forces de sécurité, » [7] cela n’est pas rassurant.
Affaire à suivre…