Polizeikräfte und Strafverfolgungsbehörden in ganz Europa nutzen Daten, Algorithmen und künstliche Intelligenz (KI), um „vorherzusagen“, ob bestimmte Personen ein „Risiko“ darstellen, Straftaten zu begehen, oder ob sie in Zukunft wahrscheinlich Straftaten begehen werden, sowie ob und wo in bestimmten Gegenden in Zukunft Straftaten begangen werden.
Wir von Fair Trials fordern ein Verbot von „Vorhersagesystemen“ für Polizeiarbeit und Justizsysteme. Nehmen Sie an dem nachstehenden Quiz teil, um herauszufinden, ob Sie als „Risiko“ eingestuft oder angesehen würden – und finden Sie heraus, wie Sie unsere Kampagne unterstützen können.
Im Gegensatz zu den Behörden werden wir selbstverständlich keine Informationen über Sie oder Ihre Antworten sammeln oder aufbewahren!
Diese automatisierten und algorithmischen Systeme sind oft geheim und nicht nachvollziehbar, da die Behörden sich weigern, Informationen über ihre Funktionsweise preiszugeben. Selbstverständlich werden wir jedoch unseren „Algorithmus“ erläutern.
Alle Fragen in unserem Tool zur Profilerstellung werden direkt mit Informationen abgeglichen, die von Strafverfolgungs- und Strafjustizbehörden in ihren eigenen Versionen von Vorhersage- und Profilerstellungssystemen und Datenbanken aktiv genutzt werden. In Wirklichkeit ist es so, dass es ausreicht, wenn nur einige der Informationen (die in unseren Fragen abgefragt werden) auf eine Person zutreffen, um als „Risiko“ eingestuft zu werden. Passt ein Gebiet in ein ähnliches Profil, wird es ebenfalls als „kriminalitätsgefährdet“ gekennzeichnet. Diese Einschätzungen sind offensichtlich diskriminierend und ungerecht - wir haben unsere eigene transparente und erklärbare Version erstellt, um zu zeigen, wie diskriminierend und ungerecht diese Systeme sind.
0 – 3 Antworten „Ja”: Das Risiko ist „niedrig“
4 – 5 Antworten „Ja”: Das Risiko ist „mittel“
6 – 10 Antworten „Ja”: Das Risiko ist „hoch“