Feiler, Ri 2021, 92-95

Algorithms Are a Pretty Fuzzy Substitute for Human Judges

Rezension von Rollberg, Algorithmen in der Justiz – Rechtsfragen zum Einsatz von Legal Tech im Zivilprozess; Baden-Baden 2020, 246 Seiten, broschiert, ISBN 978-3-8487-6907-0

Dr. Sebastian Feiler

„Words are a pretty fuzzy substitute for mathematical equations.” Dieser Satz wird Isaac Asimov zugerechnet, dem Vordenker der Science-Fiction des 20. Jahrhunderts. Dass diese „fuzziness“ und unsere bis heute unübertroffene Fähigkeit zum semantischen Verständnis ein Grund dafür ist, dass Algorithmen in der Justiz nur begrenzt zum Einsatz kommen, zeigt Christoph Rollberg in seiner lesenswerten, im Nomos Verlag erschienenen Dissertation.

 

I. The Foundation – I, Algorithm

Die Arbeit beginnt mit einem einleitenden Teil, der den Begriff „Legal Tech“ bestimmt und „Chancen und Risiken“ verortet. Zunächst stellt der Autor in einem kurzen, teils fast schon zu überblicksartigen Teil herkömmliche (von ihm als „determiniert“ bezeichnete) Algorithmen und mit Algorithmen programmierte Programme den sog. autonomen, selbstlernenden Systemen gegenüber. Hilfreich wäre hier noch ein Aufriss der Entwicklung und verschiedenen Methoden selbstlernender Systeme (wie z.B. überwachtes und nicht-überwachtes Lernen, shallow und deep learning-Ansätze und dergleichen) gewesen, um den Ansatz besser zu verstehen. Anschließend zeigt er mögliche rechtliche und rechtspraktische Folgen des Einsatzes von Legal Tech auf.[1] Klar zeichnet er insbesondere die Risiken fehlender Nachvollziehbarkeit der Entscheidungsfindung und versteckter Wertungen (sog. bias) oder gar bewusster Beeinflussung durch den Programmierenden auf. Er macht dabei deutlich, dass diese Risiken nicht etwa nur im Zusammenhang mit selbstlernenden Systemen und „black boxes“, sondern durchaus auch in herkömmlicher Software auftreten können.[2] Gut nachvollziehbar ist auch seine Beobachtung, dass (jedenfalls) ein autonomes System nicht unmittelbar Rechtssätze anwendet, solange es – wie die meisten selbstlernenden Systeme derzeit – Fälle im Wege der vergleichenden Annäherung und Auswertung vergangener Falllösungen oder Gerichtsentscheidungen „löst“ – und somit höchstens indirekt eine „eigene“ normative Ebene bildet und anwendet.[3]

 

II. Durchbruch der Wissenschaft

Im zweiten Teil[4] beleuchtet Rollberg prinzipielle Grenzen technologischer Entscheidungsfindung im Recht. Er erklärt die unterschiedlichen Konzepte formaler (Programmier-)Sprache und natürlicher Sprache. Letzterer sind Unschärfen inhärent, die nur durch Kontext der vor- und nachgelagerten Informationen aufgelöst werden können: Ein „Bauer“ kann eine Schachfigur oder ein in der Landwirtschaft arbeitender Mensch sein. Ohne semantisches Verständnis „versteht“ ein Computer einen Text nicht, selbst wenn dieser – wie fortgeschrittene Produkte, z.B. IBM’s Watson – Einzelinformationen erschließen kann.[5] Auch kann – so Rollberg – ein Computerprogramm bis heute einen zentralen kognitiven Vorgang des menschlichen Verstands noch nicht abbilden: Es kann durch Inbezugsetzen des neuen Inhalts zu einem gespeicherten Vorverständnis und hin- und herpendelndes Abwägen kein natives Textverständnis herstellen.[6] Im folgenden, besonders gelungenen Abschnitt verdeutlicht der Autor, dass juristische Subsumtion kein im formal-strengen Sinne logischer Vorgang ist, sondern dass – wie auch beim Textverständnis der natürlichen Sprache – in voraus- und zurückblickenden Wechselschritten kontextualisiert gedacht wird, insbesondere wenn Ober- und Untersatz im Subsumtionsvorgang gebildet werden:[7] Ein Obersatz („Es müsste sich um eine fremde bewegliche Sache handeln.“) wird – filternd – mit Blick auf alle Sachverhaltspunkte und mit Blick auf den vorausgewählt zu beantworten Untersatz gebildet, nicht als Ergebnis einer rein logisch gebildeten Folgerungskette. Gleichzeitig ist auch die Anwendung des – in natürlicher Sprache gebildeten – Gesetzes nicht ohne gebildetes Vorverständnis der dort verwendeten Begriffe möglich, denn jede „Definitionskette“ findet ihr Ende (bzw. ihren Anfang) in ganz grundlegenden elementaren Wertungen, deren Bedeutung der sprachlich vorgebildete Mensch kennt, der Computer aber nicht. Ähnliches gilt für Werturteile und wertend-abwägende Entscheidungen zur Ausfüllung von Wertungsmaßstäben, unbestimmten Rechtsbegriffen, Beurteilungsspielräumen auf Rechtsfolgenseite und dergleichen.[8] Dem Algorithmus fehlt auch ein Verständnis für und die Erfahrung mit einem sozialen System, unserer Gesellschaft, die für wertende Entscheidungen unerlässlich sind.[9]

Der Leser beginnt nach der Lektüre dieses Abschnitts genauer zu verstehen: Juristische Subsumtion ist etwas anderes als rein mathematische Logik. Nur dort, wo wertungsfrei und mit Rückgriff auf gebildetes Inselwissen Teilschritte unternommen und Vorfragen gelöst werden, können Algorithmen den Menschen stützen.[10] Neben diesen theoretisch-konzeptionellen Grenzen bewirken noch weitere Faktoren wie die häufig mangelhafte Datenqualität, das Problem häufig nur unstrukturiert vorliegender Daten[11] und der Umstand, dass weder Gefühle noch Einfühlungsvermögen in der menschlichen Interaktion derzeit simulierbar sind,[12] dass Algorithmen das kernjuristische Arbeiten noch nicht abbilden können.

 

III. Die Herrschaft der Algebra?

Der dritte Teil der Arbeit wendet sich der Zulässigkeit und Unzulässigkeit von technischen Anwendungen im Lichte der in Deutschland geltenden „übergeordneten Prinzipien“, also des derzeit geltenden Rechtsrahmens zu: Thematisiert werden die Unabhängigkeit der Gerichte[13], der Anspruch auf rechtliches Gehör[14], der gesetzliche Richter[15], die Rechtsstaatlichkeit und der Gleichheitssatz[16], die zivilprozessualen Verfahrensgrundsätze[17] und der Datenschutz[18]. Es wird deutlich: War der Rechtsprechungsbegriff und Kerngehalt der von Verfassungs wegen garantierten richterlichen Unabhängigkeit bisher nicht klar umrissen,[19] wird die Gesellschaft es sich künftig nicht leisten können, hier keine Klarheit zu erlangen. Auf unklarer Grundlage kann sie bei Eintreten der technischen Machbarkeit keine Entscheidung darüber treffen, ob und inwieweit die rechtsprechende Gewalt Algorithmen unterstellt wird. Die von Rollberg wiedergegebene herrschende Meinung, Richter i.S.d. Grundgesetzes könne nur eine natürliche Person sein, weil ja – indirekt – auch nur ein personifizierter Richter im Gesetz (durch Ruhestandsregelungen, durch Verwendung des Begriffs „Person“, u.a.) Erwähnung finde,[20] macht es sich zu einfach: Wer Algorithmen die Fähigkeit zur Rechtsfortbildung abspricht, und gerade diese Fähigkeit des Menschen betont, sollte bei der Auslegung zentraler verfassungsrechtlicher Begriffe auch nicht nur rückwärts in eine Welt schauen, die die mögliche „Person“ des künstlichen Richters noch nicht kannte. Das Phänomen des „Bedeutungswandel des Gesetzes“ spricht der Autor selbst an.[21]

Die Verwendung determinierter Algorithmen hält der Autor dann für zulässig, wenn der Richter den Algorithmus kennt oder einsehen und nachvollziehen kann.[22] Für nicht einsehbare Programme, selbst derzeit in Verwendung befindliche komplexe Rechner für Prozesskostenhilfe, Unterhalt, Versorgungsausgleich und dergleichen, sieht er dies kritisch.[23] Er schlägt ein Zertifizierungsverfahren ähnlich den für die Verwertbarkeit von Geschwindigkeitsmessungen hergebrachten Mechanismen vor. Das Prüfverfahren soll sicherstellen, dass die Funktionalität des Programms die Mechanismen des Gesetzes nachvollzieht und nicht bspw. einengend eine bestimmte Auslegung unterlegt ist.[24] Eine solche Zertifizierung wäre sogar geeignet, um Fehler im Programmcode auszuschalten. Richtigerweise stehe dem nicht das Geschäftsgeheimnisgesetz oder die Berufsfreiheit der Softwarehersteller entgegen.[25] Vollständig autonome Systeme hält der Autor für nicht zertifizierungs- und daher auch nicht einsatzfähig, da ihre Funktion nicht voll nachvollzogen werden könne.[26] Ein nachvollziehbares bzw. zertifiziertes Programm könne dem Richter auch verschiedene Entscheidungsmöglichkeiten zur Ausfüllung eines bestehenden Wertungsspielraums zur Verfügung stellen.[27] Völlig bedenkenfrei sei schließlich der Einsatz als „nicht entscheidungsersetzendes Hilfswerkzeug“.[28] Die Abgrenzung zwischen letzterem und einem den Richter tatsächlich ersetzenden Algorithmus dürfte freilich im Einzelfall schwer vorzunehmen sein. Rollberg stellt weiter klar, dass eine schematische Generierung von Entscheidungen zu einer Verkürzung des rechtlichen Gehörs der Parteien führen könnte, wenn das Gericht zu wenig Einblick in die Programmabläufe hätte.[29] Ebenso sei auch das Gebot des gesetzlichen Richters nur dort gewahrt, wo das Gericht Kenntnis der Funktionsweise des Algorithmus hat. Ist die Funktionsweise unbekannt oder wendet das Gericht ein autonom-selbstlernendes System an, wendet es selbst das Gesetzesrecht nicht mehr an.[30] Auch das aus dem Gleichheitssatz fließende Begründungsgebot sei dann nicht mehr umsetzbar,[31] zudem sei nach zutreffender Auslegung auch Art. 22 DSGVO verletzt.[32] Insgesamt sieht Rollberg also lediglich Spielraum für nicht-autonome, determinierte Algorithmen, die für das Gericht selbst nachvollziehbar oder zertifiziert sind. Das verdient de lege lata Zustimmung.

 

IV. Adding a Dimension

Im vierten Teil der Arbeit[33] stellt der Autor noch ausgewählte Anwendungsfälle vor, die unter Beachtung der in den Teilen 1 bis 3 gefundenen Ergebnisse im Alltag der richterlichen Arbeit zum Einsatz kommen können. Sehr kritisch und ausführlich beleuchtet Rollberg die bei den Gerichten weit verbreiteten Prozesskostenhilferechner. Hier sieht er hinsichtlich der Nachvollziehbarkeit der Anwendung Nachholbedarf.[34] Als gangbaren Weg führt er hier eine Zertifizierung und Beschränkung des Einsatzes auf die berechnenden Teile der Prozesskostenhilfe-Prüfung an, also insbesondere keine Übernahme von Wertungsentscheidungen durch das Hilfsprogramm.[35] Auch Schmerzensgeldrechner hält der Autor (im Umfang einer Rechenhilfe) für zulässig, warnt aber vor ungewünschten „Ankerwirkungen“ durch die ausgeworfenen Hinweise.[36] Auch eine Teilanwendung der in der Richterschaft zunehmend beliebten App „Richter-Tools“[37] sieht er kritisch, da die App sich einer der vertretenen Meinung zur Fristberechnung der Karenzzeit für die Kündigung von Mietverhältnissen anschließe.[38] Für zukünftig denkbare Einsatzfelder wie automatisierte Schlüssigkeitsprüfungen oder Vergleichsvorschläge definiert er Korridore, innerhalb derer sie zur Unterstützung des Gerichts und bei klarer Abgrenzung und Bewahrung der Entscheidungsautonomie des Gerichts eingesetzt werden dürfen.

Die in diesem Teil gewählten Beispiele sind nicht nur von hoher praktischer Relevanz, sondern zeigen auch anschaulich, wie schnell – selbst bei Nachvollziehbarkeit des Algorithmus oder demnächst Vorliegen eines Zertifikats – die Grenze zur Verlagerung einer wertenden Entscheidung auf die Software überschritten ist.

 

V. Good Taste

Die von Bezzenberger betreute und im vorliegenden Band veröffentlichte Dissertation erschließt das Themenfeld der Algorithmen in der Justiz sicher und mit Problembewusstsein. Sie schafft verdienstvoll Perspektive und Zugänge. An manchen Stellen wären vertiefte Erläuterungen hilfreich, in den Technik erklärenden Teilen Verweise auf Primärquellen aus dem Schrifttum der Informatik und angrenzenden Wissenschaft wünschenswert gewesen – doch der Durst nach Mehr zeigt nur, wie prägnant der Autor die Thematik aufbereitet hat.

Verschiedentlich öffnet Rollberg auch dem nicht mehr ganz unbedarften Leser:innen noch die Augen, so bspw. mit der Beobachtung auf S. 45 seines Werkes, menschliche Richter:innen seien hinsichtlich des Nachvollziehens von Entscheidungen – insbesondere, so ist es wohl gemeint, wenn sie nicht mehr gefragt werden können oder sich nicht erinnern – ebenso eine „black box“ wie die selbstlernenden Systeme, bei denen dies problematisiert werde. Ebenso treffend ist seine Analyse, dass Legal Tech-Produkte, die auf schleppend bereitgestellte Updates warten müssen, mitunter sogar als Innovationsbremse wirken könnten.[39]

Manche These ist jedoch auch gewagt, meist eher in den derzeitigen (vermeintlichen) Grenzen im Technischen gründend: Ist es tatsächlich so, dass ein selbstlernendes System nur „Regeln aus Entscheidungen der Vergangenheit bilden“ und – so der Autor[40] – nicht an der Rechtsfortbildung durch „Konkretisierung von wertausfüllungsbedürftigen Wertungsmaßstäben“ mitwirken kann? Fußt die (wohl für den derzeitigen Stand der Technik: richtige) Feststellung, Rechtsfortbildung sei ausgeschlossen,[41] da semantisches Verständnis und Einfühlungsvermögen fehle und auch das „autonomste“ System immer innerhalb der Vorgaben des Entwicklers arbeiten wird, nicht auf der Prämisse, dass diese Einschränkung stets bestehen bleibt? Und bietet ein heute aufgesetztes selbstlernendes System nicht tatsächlich schon mehr Verknüpfungs- und Kombinationsmöglichkeiten, als von den Programmierern des lernenden Algorithmus vorhergesehen?

Die Arbeit bildet Band 2 der von Broemel, Lüdemann, Podszun und Schweitzer herausgegebenen Schriftenreihe „Recht und Digitalisierung“.  Die bisher erschienenen Bände beschäftigen sich mit Wissenszurechnung und Recht autonomer Systeme, der rechtswissenschaftlichen Analyse und Entwicklung des Begriffs der algorithmischen Rechtsdienstleistung. Auf die Fortsetzungen der Reise durch die Welt von Recht und Technik darf man, ebenso wie auf die nächsten Bände dieser Schriftenreihe, gespannt sein.

V

V


[1] Rollberg, S. 33 ff.

[2] Rollberg, z.B. S. 49.

[3] Rollberg, S. 51.

[4] Rollberg, S. 56 ff.

[5] Rollberg, S. 58 ff.

[6] Rollberg, S. 61 ff.

[7] Rollberg, S. 63 ff.

[8] Rollberg, S. 69 ff.

[9] Rollberg, S. 74 ff.

[10] Rollberg, S. 78.

[11] Rollberg, S. 80.

[12] Rollberg, S. 82.

[13] Rollberg, S. 85 ff.

[14] Rollberg, S. 138 ff.

[15] Rollberg, S. 145 ff.

[16] Rollberg, S. 148 ff.

[17] Rollberg, S. 157 ff.

[18] Rollberg, S. 163 ff.

[19] Rollberg, S. 87.

[20] Rollberg, S. 88 f.

[21] Rollberg, S. 132.

[22] Rollberg, S. 101 f.

[23] Rollberg, S. 102 ff.

[24] Rollberg, S. 110 ff.

[25] Rollberg, S. 113 f.

[26] Rollberg, S. 124 f.

[27] Rollberg, S. 129 f.

[28] Rollberg, S. 135.

[29] Rollberg, S. 138 ff.

[30] Rollberg, S. 147 f.

[31] Rollberg, S. 148 ff.

[32] Rollberg, S. 163 ff.

[33] Rollberg, S. 174 ff.

[34] Rollberg, S. 176 ff, S. 187 ff.

[35] Rollberg, S. 176 ff, S. 187 ff.

[36] Rollberg, S. 196 ff.

[37] Im Betatest abrufbar unter https://www.janforth.de/richter-tools/ (zuletzt besucht am 28. September 2021).

[38] Rollberg, S. 198 f.

[39] Rollberg, S. 49.

[40] Rollberg, S. 51.

[41] Rollberg, S. 84.

Titelbild: © Albert Ziganshin, via Adobe Stock, #38989139