Es war im Oktober 2016, da hat Rainer Krüger einen historischen Mausklick gesetzt: Er hat als erster Richter des Landes einen Beschluss elektronisch verfasst und abgeschickt. „Wir am Arbeits- und Sozialgericht in Wien waren tatsächlich diejenigen, die Geburtshilfe betrieben haben“, sagt er. Es war das erste Gericht, das im Rahmen eines Pilotprojekts auf eine elektronische Aktenführung umgestellt wurde. Justiz 3.0 lautet der Titel des Projekts.
Justiz 3.0, das soll nach Zukunft klingen. Ein Prestigeprojekt der heimischen Justiz sei es. Dabei bedeutet Justiz 3.0 nichts anderes als die Ermöglichung der papierlosen Aktenführung, den digitalen Akt. Dass das Ende 2019 als Vision und nicht als Standard gilt, überrascht. Aber „im internationalen Vergleich sind wir damit im Spitzenfeld“, sagt Martin Schneider, Leiter der Rechtsinformatikabteilung im Justizministerium, der das Projekt leitet. Oder zumindest nicht hinter Deutschland: Dort gibt es wie in Österreich lediglich Pilotgerichte, in denen mit elektronischen Akten gearbeitet gibt.
In Österreich sind das neben dem Wiener Arbeits- und Sozialgericht einige Landesgerichte sowie das Wiener Handelsgericht und das Bezirksgericht Meidling. Am Arbeits- und Sozialgericht in Wien haben sich gerade erst zehn neue Richter gefunden, die mit elektronischen Akten arbeiten wollen – insgesamt sind es damit 18 von rund 40 Richtern, die am Projekt teilnehmen. Noch beruht die Teilnahme auf Freiwilligkeit, das Interesse hielt sich zunächst allerdings in Grenzen: „Es war nie so, dass wir Kollegen ausgeschlossen hätten. Der Run auf diese Geschichte war aber enden wollend“, sagt Krüger.
Manche Richter betrachten die Entwicklung Richtung Digitalisierung mit Argwohn. „Da ist sicher viel Respekt vor dem Neuen und vor der Abhängigkeit von der Technik dabei“, sagt Krüger. Weshalb es Martin Schneider im Ministerium wichtig ist zu betonen, dass analoges Arbeiten weiterhin möglich sein wird: „Es wird niemand gezwungen, nicht auszudrucken“, sagt er. Krüger hingegen genießt es, dass er nicht mehr mit einem Rollwagerl gestapelter Akten in den Verhandlungssaal kommt, sondern einfach nur mehr den Laptop ansteckt. Dennoch sei das System nach drei Jahren Probebetrieb teilweise immer noch nicht sehr ausgereift, „und das ärgert mich“. Am Sozialgericht müssen die Parteien das Verhandlungsprotokoll unterzeichnen, das ist bei einer digitalen Verhandlungsführung natürlich schwierig. „Ich reiche immer mein Signpad für eine digitale Unterschrift herum, aber das ist auch nicht der Weisheit letzter Schluss.“
Nicht nur die mangelnde Bereitschaft der Richterschaft verzögert die Umsetzung von Justiz 3.0. „Es ist sicher korrekt, dass das Projekt ins Stocken geraten ist“, sagt Schneider. „Ich kann ins Personal oder in die IT investieren, oder in beides. Aber wenn man beides streicht, wird es echt schwierig. Wir könnten mit Justiz 3.0 ein gewisses Maß der personellen Engpässe abfangen, aber wenn darin nicht investiert wird, können wir auch nichts machen.“ Justiz 3.0 landete auf dem Abstellgleis: „Wir haben aufgrund der Budgetschwierigkeiten keinen weiteren Rollout betrieben, etwa in Richtung Strafverfahren“, sagt Schneider. 15.000 voll elektronische Akten gibt es aktuell, 2019 sind es bis Oktober etwa 7.700. Das klingt nach mehr, als es eigentlich ist: Gerade einmal 0,39 Prozent aller Akten des Jahres sind voll digital.
Alle anderen gibt es weiter in einfacher Ausführung in Papierform. Anwälte müssen weiterhin zum Gericht fahren, wenn sie Akteneinsicht nehmen wollen. Auch Sachverständige brauchen den Akt für ihre Gutachten, „und wir haben oft mehrere davon: Verkehrstechniker, Mediziner, Arbeitswissenschaftler. Die könnten mit dem elektronischen Akt gleichzeitig daran arbeiten“, sagt Schneider. Der Papierakt muss von Sachverständigem zu Sachverständigem geschickt werden – und das zieht Verfahren natürlich in die Länge. Die Verfahrensdauer, sagt Richter Krüger, würde der elektronische Akt am Sozialgericht natürlich verkürzen. In Deutschland hat der Gesetzgeber den Gerichten eine Frist bis 2026 gesetzt, um alle Gerichte voll zu digitalisieren. In Österreich gibt es keinerlei legislativen Druck.
Während hierzulande also auch in den kommenden Jahren Akten physisch verschickt werden, halten in anderen Staaten bereits Algorithmen Einzug in den Gerichtsalltag. In Estland, seit Jahren Vorreiter in Sachen Digitalisierung, soll Medienberichten zufolge bald ein „Robot Judge“ zum Einsatz kommen, der tatsächlich über Fälle entscheidet, solange diese Zivilstreitigkeiten betreffen und einen Streitwert von unter 7.000 Euro haben. Diese Medienberichte seien allerdings nur halbrichtig, sagt Ott Velsberg, der Chief Data Officer der estnischen Regierung: „Einen Roboterrichter planen wir nicht. Es geht darum, Strafzahlungen zu automatisieren, unbezahlte Parktickets etwa.“ Der Wert darf 7.000 Euro nicht überschreiten; und der Algorithmus trifft keine eigenständigen Entscheidungen. Hauptsächlich, sagt Velsberg, geht es um Effizienz. Die Wartezeit von 60 Tagen bei Entscheiden zu Strafzahlungen soll deutlich reduziert werden; jene 30 Mitarbeiter, die mit diesen 32.000 Fällen pro Jahr zu tun haben, sollen in Zukunft für andere Aufgaben eingesetzt werden. Wann diese Zukunft beginnen wird, ist aber noch unklar. Die Begründung dafür klingt bekannt: „Aufgrund von budgetären Einschnitten liegt das Projekt derzeit auf Eis.“
Eine Studie der Beratungsfirma McKinsey besagt jedenfalls, dass bis zu 35 Prozent der Aufgaben eines Beamten an einem kleinen Gericht von einer künstlichen Intelligenz (KI) übernommen werden können. Martin Schneider sagt, dass Österreich auch in diesem Gebiet nicht hinten nach sei. Auch hierzulande sei KI für Hilfsdienste im Einsatz: „Bei den großen Wirtschaftsverfahren werden Unterlagen, Server, Mobiltelefone beschlagnahmt – eine Vielzahl an Dingen. Da setzen wir künstliche Intelligenz ein, um die Daten zu analysieren.“
Die US-amerikanische Rechercheplattform Propublica hat sich einem jener Algorithmen angenommen, die dort bereits im Einsatz sind: Compas. Das von einem privaten Unternehmen erstellte Programm soll voraussagen, wie hoch die Wahrscheinlichkeit ist, dass eine Person, die verhaftet wurde, wieder rückfällig wird; es wird in mehreren US-Bundesstaaten eingesetzt. 1 bedeutet sehr niedriges, 10 sehr hohes Risiko. Das Programm wird eingesetzt, um bei der Entscheidung zu helfen, ob eine Person in Untersuchungshaft bleiben soll oder bis zum Prozess auf Kaution freikommen darf. Nur: Niemand kennt den exakten Algorithmus, der hinter Compas steckt. Und zumindest Propublica unterstellt dem Programm latenten Rassismus.
Die Plattform hat sich 7.000 Fälle angeschaut, in denen 2013 und 2014 in Broward County in Florida Rückfallwahrscheinlichkeiten berechnet wurden. Die Ergebnisse, grob zusammengefasst: Die Rückfallwahrscheinlichkeit von straffällig gewordenen Schwarzen wurde signifikant überschätzt, jene von straffällig gewordenen Weißen signifikant unterschätzt. 23,5 Prozent der Weißen und 44,9 der Schwarzen in Broward County, denen ein hohes Risiko vorausgesagt wurde, wurden nicht rückfällig; 47,7 Prozent der Weißen und 28 Prozent der Schwarzen, denen ein niedriges Risiko prophezeit wurde, wurden dennoch rückfällig.
Die generelle Rückfallwahrscheinlichkeit sagte Compas zu 65 Prozent korrekt voraus. Das Problem: Für eine Studie des Dartmouth College in New Hampshire wurden 400 Freiwillige ohne juristischen Background rekrutiert, die ebenfalls über die Rückfallwahrscheinlichkeit derselben Personen wie Compas urteilen sollten – mit weitaus weniger Informationen, als sie Compas hatte. Sie waren zu 67 Prozent korrekt. Die Forscher programmierten in der Folge einen eigenen Algorithmus, allerdings einen sehr simplen: Er umfasst nur das Alter des Klienten und die Zahl seiner bisherigen Verurteilungen. Die simple These: Je jünger und krimineller eine Person, desto höher die Rückfallwahrscheinlichkeit. Auch dieser Algorithmus schlägt Compas und kommt auf eine Erfolgsquote von 67 Prozent.
Compas beurteilt anhand von 137 Fragen, ein großes Problem dabei sei die Gewichtung, erzählt ein kalifornischer Richter: Jemand, der ein Kind ein Jahr lang sexuell belästigt und einen Job hat, kann seiner Erfahrung nach eine niedrigere Einstufung haben als ein Betrunkener, der obdachlos ist. Es sind jene Fragen nach der sozialen Stellung, nach Armut und Arbeitslosigkeit, die Schwarze häufiger betreffen. Die Compas-Einschätzungen sind nicht nur häufig falsch, sie haben auch noch einen zweiten Nebeneffekt: Manche Richter neigen dazu, Angeklagten mit einem hohen Rückfallsrisiko auch eine höhere Strafe zu geben. Der Supreme Court des Bundesstaats Wisconsin urteilte 2016, dass das unter gewissen Umständen auch erlaubt sei – obwohl Compas eigentlich nur die Entscheidung über die Kaution und etwaige Therapien beeinflussen sollte.
Cornelia Koller, Präsidentin der österreichischen Staatsanwälte, lehnt solche Programme ab, mit derselben Begründung, die Propublica recherchierte: „Ich habe die Befürchtung, dass da rassistische und sexistische Motive hineinspielen könnten.“ Zudem: „Die Aufgabe des Gerichtes ist die Menschlichkeit, jeden Fall einzeln zu betrachten.“ Trotzdem findet sie, dass mehr über diese Entwicklungen gesprochen werden sollte: „Wir warten immer, was uns die Technik bietet, und schaffen dann ein rechtliches Konstrukt.“ Sie findet: Es sollte umgekehrt sein. Auch Rainer Krüger, Vorreiter in Sachen Justiz 3.0, sieht diese Entwicklungen kritisch. Vor Robotern als Richter warnen beide. Gerade am Arbeits- und Sozialgericht, sagt Richter Krüger, sei es gar nicht möglich, den menschlichen Richter durch eine künstliche Intelligenz zu ersetzen: „Es geht oft darum, die Glaubwürdigkeit von Aussagen und Personen zu beurteilen, das kann ein Computer nicht.“
Auch der Este Ott Velsberg glaubt nicht an einen Roboterrichter, mit einem ähnlichen Argument: „Es braucht zu viel an Interpretation, Gerichtsverfahren haben viele Graustufen, da geht es nicht um eine Entscheidung schwarz oder weiß.“ Die Kritik an Algorithmen wie Compas versteht er trotzdem nicht: „Wenn es einen Bias gibt, dann kommt der von den Menschen, die ihn programmieren. Ein System an sich hat keinen inhärenten Bias und wäre damit grundsätzlich weniger gefährlich.“
Denn Menschen sind vielleicht noch schlechtere Richter– und auch ihre Entscheidungsprozesse liegen im Dunklen. Eine Studie aus dem US-Bundesstaat Louisiana zeigt, dass unerwartete hohe Niederlagen des College-Football-Teams die Höhe der Strafen in der darauffolgenden Woche nach oben schnellen ließen. Die Außentemperaturen beeinflussen die menschliche Rechtsprechung genauso wie der Geburtstag des Angeklagten – an diesem sind die Richter tendenziell milder gestimmt. Daniel Chen von der französischen Universität Toulouse hat herausgefunden, dass die Chance zur Ablehnung eines Asylantrages steigt, wenn der Richter zuvor mehrere positive Bescheide ausgestellt hat und deshalb das Gefühl hat, zu milde zu sein – auch wenn es für eine Ablehnung keine sachlichen Gründe gibt.
Eine Untersuchung der kalifornischen Universität Stanford geht in dieselbe Richtung: Dort wurden 100.000 richterliche Entscheidungen analysiert, bei denen es darum ging, Angeklagte auf Kaution freizulassen. Während manche Richter in 90 Prozent der Fälle Kaution erlauben, sind es bei anderen nur 50 Prozent. In Österreich wird seit vielen Jahren ein deutliches Ost-West-Gefälle bei den Strafbemessungen diskutiert. Chen will Algorithmen deshalb dafür nutzen, Richtern unter die Arme zu greifen: Der Algorithmus würde den Richter also darauf aufmerksam machen, dass sein Urteil von jenem abweicht, das die Maschine vorgeschlagen hätte.
Das allerdings könne auch Absicht sein, sagt Martin Schneider: „Es gibt im Rahmen des rechtlichen Spielraums Auslegungsmöglichkeiten.“ Richter können einem gesellschaftlichen Wandel Ausdruck verleihen, indem sie diese Möglichkeiten ausschöpfen. Er glaubt, dass menschliche Richter nötig seien, eben weil sie nicht immer nur den Buchstaben des Gesetzes folgen und damit auch „aufzeigen, dass eine Gesetzesänderung vielleicht nötig wäre“.