Mit der „Justice“-App kannst du's testen!

Es funktioniert wie Tinder. Das Bild einer Person taucht auf, man muss nach links oder rechts wischen, dann kommt das nächste Bild. In der App „Justice“ geht es aber nicht darum, ein Match zu bekommen.

Man verurteilt Straftäter.

Nach links wischen heißt: milde Strafe, nach rechts wischen: harte Strafe.

Als erstes ist ein Mann dran: 18-jähriger Amerikaner, wegen Vandalismus verurteilt. Wische ich nach unten, kommen mehr Informationen zu ihm: Er hat die High School nicht gepackt, bereits zuvor zwei schwerere Verbrechen begangen. Die Frage lautet: Bekommt er acht Monate oder 59 Monate Gefängnis aufgebrummt?

Schrammen im Gesicht, vorbestraft: Einer der Straftäter bei „Justice“ Foto: Screenshot / Justice

50 Steckbriefe mit gezeichneten Häftlingsbildern und dem Verbrechen, das die jeweilige Person begangen hat, gilt es durchzuspielen.

Mit jeder Entscheidung analysiert ein Algorithmus, wie hart oder weich man in seinen Urteilen ist und worauf man achtet. Aufgrund dieser Erfahrung übernimmt der Algorithmus das Wischen bei den letzten fünf Steckbriefen selbst, er hat das Verurteilen quasi von dir gelernt.

Nach und nach verschwinden immer mehr Informationen zu den Tätern, da der Algorithmus lernt, dass diese Informationen nicht in die Entscheidungsfindung einfließen würden. Doch das stimmt nicht, und das hat seinen Sinn.

Was eigentlich wichtig war, wird laut Algorithmus „irrelevant“ Foto: Screenshot / Justice

Beim Durchspielen habe ich vor allem aufs Vorstrafenregister geachtet. Wenn das wegfällt, kann ich kaum noch ein hartes Urteil fällen. Ich entscheide mich schnell dazu, nur die Mörder hart zu bestrafen, alle anderen Delikte weich.

Im Anschluss an die 50 Urteile listet die App auf, dass ich zwar weitgehend neutral geurteilt hätte. Allerdings hätte ich arbeitslose Täter härter bestraft als Leute mit Arbeit. Obwohl ich darauf nie geachtet und wirklich nur die Mörder hart bestraft habe.

Meine drei wichtigsten Kriterien bei der Verurteilung: Der Tatbestand, die Vorstrafen, das Arbeitsverhältnis Foto: Screenshot / Justice

Ein weiterer Schwachpunkt: Die Strafmaße liegen extrem weit auseinander. Eine 40-jährige Mexikanerin hat mit Drogen gedealt, war bereits vorher einmal wegen eines Drogendelikts verurteilt worden. Die Möglichkeiten: knapp zwei Jahre Knast oder lebenslänglich. WTF? Natürlich wähle ich dann die milde Strafe. Und das nicht, weil sie verheiratet ist und eine Arbeitsstelle hat.

25 Monate oder lebenslänglich? Zwischen diesen Strafmaßen liegen Welten. Foto: Screenshot / Justice

Doch diese Fehler in der App sind gewollt. Entwickelt wurde sie von Studenten der University of Utah, und laut dem Professor soll die App vor allem zeigen, wie ein Algorithmus von menschlichen Entscheidungen lernt.

„Algorithmen sind überall, sie arbeiten leise im Hintergrund und treffen Entscheidungen so, wie sie ein Mensch wahrscheinlich tun würde“, sagt Randy Dryer, „die Maschine fällt nicht unbedingt bessere oder fairere Urteile, das soll das Spiel dem User zeigen.“

Wenn die App also glaubt, meine Verhaltensweise entschlüsselt zu haben, begeht sie absichtlich Fehler. „Der Algorithmus erkennt Denkmuster im Menschen, die entweder tief begründet oder schlicht falsch sind“, sagt Dryer.

Damit wollen sie aufmerksam machen, wie schnell schwerwiegende Fehler passieren, weil man sich auf Algorithmen verlässt.

Viele Gerichte würden nämlich bei der Strafverfolgung Täterprofile mit Hilfe von Algorithmen analysieren lassen, was zu Verurteilungen Unschuldiger führen könne.

Quelle: Noizz.de