A travers toute l’Europe, les forces de police et les autorités de justice pénale utilisent des données, des algorithmes et des systèmes d’intelligence artificielle (IA) pour “prédire” si certaines personnes présentent un “risque” de commettre un crime et si et où des crimes seront commis dans certaines zones à l’avenir.
L’organisation Fair Trials appelle à l’interdiction des systèmes de police et de justice “prédictifs”. Répondez au questionnaire ci-dessous pour savoir si vous seriez profilé ou considéré comme présentant un “risque” et découvrez comment soutenir notre campagne.
Contrairement aux autorités, nous ne collecterons ni ne conserverons aucune information sur vous vos réponses!
Les systèmes automatisés et autres algorithmes sont souvent secrets et opaques, les autorités refusant de fournir des informations sur leur fonctionnement. Mais nous allons vous expliquer comment fonctionne notre « algorithme ».
Toutes les questions de notre outil exemplatif de profilage correspondent aux informations utilisées activement par les autorités répressives et judiciaires dans leurs propres systèmes et bases de données prédictives et de profilage. En réalité, il suffit qu’une personne corresponde ne fut-ce qu’à certains éléments d’information (comme celles demandées dans notre outil exemplatif) pour être catégorisée comme présentant un risque de criminalité. De même, si une zone géographique correspond à un profil similaire, celle-ci sera également considérée comme présentant un risque de criminalité.
Ces évaluations sont évidemment discriminatoires et injustes – nous avons créée notre propre version - transparente et explicable - afin de montrer à quel point ces systèmes sont discriminatoires et injustes.
0 à 3 réponses “oui” : risque faible
4 à 5 réponses “oui” : risque moyen
6 à 10 réponses “oui” : risque élevé