Ri 02/2019: Wellengang

Ri 02/2019: Navigation

Ri 02/2019: Beitrag

Ich spreche Recht, also bin ich.

Der „Robo Judge“ in der Realität

Claudia Otto

„Weil unsere Sinne uns manchmal täuschen, wollte ich voraussetzen, es gebe nichts, das so wäre, wie sie es uns vorstellen lassen. Da es außerdem Menschen gibt, die sich beim Überlegen täuschen, – selbst bei den einfachsten Materien der Geometrie […] und ich urteilte, dem Irrtum genauso unterworfen zu sein wie jeder andere auch, wies ich alle Begründungen zurück, die ich vorher für Beweise genommen hatte. Schließlich zog ich in Betracht, dass genau dieselben Gedanken, die wir haben, wenn wir wach sind, uns auch kommen können, wenn wir schlafen, ohne dass irgendeiner davon wahr wäre. Deshalb entschloss ich mich, so zu tun, als ob alles, was jemals in meinem Geist eingetreten war, nicht wahrer wäre als die Illusionen meiner Träume. Aber gleich darauf bemerkte ich, dass, während ich so denken wollte, alles sei falsch, es sich notwendig so verhalten müsse, dass ich, der dies dachte, etwas war. Ich bemerkte, dass diese Wahrheit: Ich denke, also bin ich, so fest und gesichert war, dass auch die verrücktesten Voraussetzungen der Skeptiker nicht fähig waren, sie zu erschüttern, und deshalb urteilte ich, sie ohne Bedenken als erstes Prinzip der von mir gesuchten Philosophie annehmen zu können.“[1] 

 

Kann man, in Anlehnung an René Descartes‘ „Cogito ergo sum“ behaupten, dass in dem Moment, in dem ein „Rechtberechnungsautomat“ Informationen verarbeitet, dieser denkt und allein aus diesem Grund als eine elektronische Person, wenn auch bislang ohne rechtliche Anerkennung, existiert? Kann es also einen „Robo Judge“, einen künstlich intelligenten Richter[2] geben? Selbst wenn der Mensch die Entscheidungen des „Robo Judge“, hätte sie ein Mensch getroffen, als nicht intelligent bezeichnen würde? Oder wusste schon Aristoteles, vor über 2.000 Jahren, dass es einen Recht sprechenden Roboter gar nicht geben kann, weil nur (richtige) Zweifel zu rechter Erkenntnis führen können?

___STEADY_PAYWALL___

„Wer Recht erkennen will, muss zuvor in richtiger Weise gezweifelt haben.“[3]

 

Der Zweifel als Ausdruck einer – wenn auch nur vorübergehenden – Unentschiedenheit deutet darauf hin, dass eine Maschine nicht zweifeln kann. Eine Maschine muss auf der Basis ihrer Vorgaben (z.B. Algorithmen und Daten) entscheiden. Doch entscheidet wirklich die Maschine, oder nicht doch der Mensch, der die Informationen und Regeln der maschinellen Entscheidungsfindung vorgegeben hat? Liegt in dieser grundlegenden Beschränkung der Freiheit, etwas zu entscheiden, also auch in der Entscheidung, nicht zu entscheiden, nicht bereits der Beweis der Nichtexistenz einer Maschinenperson? Kann eine Fehlermeldung schon Ausdruck eines existenzbegründenden Zweifels sein? Oder kommt es auf Zweifel gar nicht an, weil jeder, Mensch wie Maschine[4], getäuscht werden kann?

 

Die Diskussionen um sog. Künstliche Intelligenz treiben die wildesten Blüten. Sie treiben eine Entwicklung voran, die näher an der Entwicklung von Wunschvorstellungen von einer surreal-idealen Zukunft ist, als an den Technologien zur Umsetzung umsetzbarer Vorstellungen in naher Zukunft und der rechtlichen Einordnung von zukünftiger Realität selbst. Dass jeder menschliche Mitdenkende ist[5], daran besteht kein Zweifel. Doch Zweifel an den Vorstellungen des Richterroboters sind begründet.

 

Der nachfolgende Beitrag soll philosophische und rechtliche Probleme des Konstrukts „Robo Judge“ identifizieren, die eng mit der Diskussion um die elektronische Person[6] und die Zukunft sog. Künstlicher Intelligenz[7] verzahnt sind. Anhand des Vorstoßes Frankreichs, die richterliche Unabhängigkeit durch Verbote der Verwendung von richterlichen Urteilen, u.a. zur Vorhersage der tatsächlichen oder vermeintlichen Entscheidungspraxis, zu schützen und des sog. Chinese Room Experiments soll der Frage nachgegangen werden, ob es einen künstlich intelligenten Richter überhaupt geben kann – und wenn ja, sollte.

 

A. Was ist „Denken“?

 

Wenn von Maschinenautonomie gesprochen wird, entsteht Verwirrung. Sind Maschinen, z.B. sog. autonome Fahrzeuge tatsächlich „intellektuell“ selbständig? Oder sollen wir dies lediglich glauben?

 

Nun könnte die Frage von Alan M. Turing

 

„Können Maschinen denken?“[8]

 

erneut aufgeworfen werden. Sie hilft jedoch nicht weiter. Die hier in direkte Beziehung gesetzten Begriffe „Maschinen“ und „denken“ muten bereits befremdlich an.[9] Und doch, Lebewesen mit Gehirn und eine mit Computerprogramm(en) betriebene Maschine haben gemein, dass sie unter ihrer Nutzung Informationen verarbeiten und diese Informationsverarbeitung in einem Verhalten resultiert.[10]

 

„Denken“ als Bezeichnung für einen Informationsverarbeitungsvorgang würde allerdings keinerlei Abgrenzung zwischen Mensch (, Tier) und Maschine mehr erlauben. Eine solche Vereinfachung, etwa zum Zwecke der Argumentation für die Einführung der sog. elektronischen Person, hat etwas Unethisches: Menschen sind keine Maschinen und Maschinen keine Menschen.

 

Um ein Lebewesen von einem leblosen Gegenstand unterscheiden zu können, muss die Frage vielmehr lauten:

 

„Was bedeutet Denken?“

 

Die Antwort muss erlauben, die aufgeworfene Frage zu klären, ob oder zumindest in welcher Ausprägung es einen „Robo Judge“, einen künstlich intelligenten Richter, geben kann.

 

Denken ist nach Heidegger etwas Höchstpersönliches:

 

„In das was Denken heißt, gelangen wir, wenn wir selber denken. Damit ein solcher Versuch glückt, müssen wir bereit sein, das Denken zu lernen.“[11]

 

Denken ist etwas, das erst erlernt werden muss. Dafür bedarf es Eigeninitiative und intrinsischer Denkbereitschaft. Denken ist hiernach nicht nur ein schlichter Informationsverarbeitungsvorgang, der auf der Kommunikation und Funktion von physischen Komponenten nach bestimmten Vorgaben eines anderen beruht, sondern vor allem ein auf intrinsischer Motivation beruhendes, erlerntes, höchstpersönliches Entwickeln und Gestalten von Gedanken. Dies ist einer Maschine, in Anbetracht des Stands der Technik, nicht möglich. Höchstpersönlichkeit ergibt sich auch nicht aus mangelnder Nachvollziehbarkeit des Prozesses der maschinellen Informationsverarbeitung.

 

Oben wurde formuliert, dass eine Maschine auf der Basis ihrer Vorgaben entscheiden muss. Eine Entscheidung ist, wie auch die Wahl oder der Entschluss, vom allgemeinen Begriffsverständnis her ein Resultat des menschlichen (Nach-) Denkens. Auch von einer sich nur langsam weiterentwickelnden Sprache kann man nicht auf die Entscheidungsfähigkeit einer Maschine der sich in hohem Tempo wandelnden Neuzeit schließen. Ist der Maschine nun eine Entscheidung aufgrund ihrer Vorgaben nicht möglich, erfolgt i.d.R. eine Fehlermeldung. Die Fehlermeldung ist die Information über das Nicht-Entscheiden-Können und eine Aufforderung an den die Maschine bedienenden Menschen, die Entscheidungsfähigkeit herzustellen. Sie selbst vermag nicht durch eigenständiges Entwickeln und Gestalten von Lösungswegen zu einer eigenen Entscheidung zu kommen. Gibt die Maschine hingegen nur Wahrscheinlichkeiten aus, trifft sie keine Entscheidungen. Hier bleibt es am Menschen, die Entscheidung zu treffen; ob ohne oder unter Beachtung dieser Wahrscheinlichkeiten. Diese Entscheidung trifft der Mensch entweder im Voraus, etwa beim Programmieren, oder im Nachhinein.

 

Die der Maschine fehlende, aber dem Menschen gegebene Freiheit, sich angesichts gegebener Alternativen und Wahrscheinlichkeiten auch ganz anders entscheiden zu können, spricht dafür, dass das Denken vor allem die Freiheit des anders Denkens beinhaltet. Ein sog. autonomes Fahrzeug etwa, dass im Straßenverkehr so frei sein darf, anders zu denken und damit abweichend von menschlichen Entscheidungsmöglichkeiten zu entscheiden, ist jedoch nicht denkbar.

 

Hannah Arendt sagte:

 

„Man könnte wohl sagen, daß die lebendige Menschlichkeit eines Menschen in dem Maße abnimmt, in dem er auf das Denken verzichtet.“[12]

 

Warum sollte nun eine lebendige, in ihrem gemeinsamen Recht verbundene Gesellschaft von Menschen auf das Denken über dasjenige verzichten, was sie verbindet? Warum sollte sie sich selbst ihre geistige Lebendigkeit nehmen wollen?

 

B. Sollte Recht berechenbar(er) sein?

 

Gesetze dienen der Information, was erlaubt, recht bzw. richtig ist und was nicht. Damit herrscht ein gewisser Grad der Berechenbarkeit des Rechts vor. Da nicht alle Umstände des Einzelfalls vorhergesehen, geregelt und in noch überschaubarer Weise in rechtlichen Vorgaben aufbereitet werden können, nutzt man das Mittel der Abstraktion durch Sprache. Man versucht, so viele denkbare Fälle wie möglich mit so wenig Worten wie möglich zu erfassen. Richter und Gerichtsentscheidungen wiederum helfen bei der Anwendung auf den Einzelfall durch Entschlüsselung der abstrakten Gesetzessprache, sog. Auslegung.

 

Warum ist die innewohnende Freiheit des menschlichen Richters (vgl. Charta der Grundrechte der Europäischen Union: Art. 47 Abs. 2 GrCh; Europäische Menschenrechtskonvention: Art. 6 Abs. 1 S. 1 EMRK; in Deutschland: Art. 97 Abs. 1 GG), auch anders als die Parteien oder Dritte zu denken, für viele so bedrohlich? Ist nicht vielmehr der „Robo Judge“ die Bedrohung, als eine Manifestation des Verzichts auf menschliche Gedankenfreiheit?

 

Warum soll das gegebene Maß an Berechenbarkeit von Recht zugunsten individueller Interessen verschoben werden?

 

I. Der auf Angst gründende Wunsch nach Kontrollierbarkeit des Rechts

 

Der berühmt-berüchtigte Satz „Vor Gericht und auf hoher See ist man in Gottes Hand“ deutet darauf hin, dass Recht seit jeher als unberechenbar wahrgenommen wird. Recht und Gerechtigkeit sind bekanntlich nicht dasselbe. Das Recht ist grundsätzlich objektiv, die Gerechtigkeit hingegen liegt in der subjektiven Interpretation aufseiten der jeweiligen Verfahrensbeteiligten. Diese Auffassungen von Gerechtigkeit entsprechen einander häufig nicht – sonst gäbe es schließlich keinen Streit, den ein unbeteiligter Richter aufgrund ihm vorgetragener, subjektiv eingefärbter Informationen entscheiden muss. Verständlich also, dass man seine Gerechtigkeit erzielen und eine von der eigenen Rechtsauffassung abweichende Entscheidung gerne vermeiden will. Das ist menschlich. Denn eigentlich geht es um die Beseitigung oder zumindest Abmilderung von menschlicher Angst vor dem Unbekannten.

 

Die Unzufriedenheit der Menschen mit den Unwägbarkeiten des Recht(bekommen)s ist keine neue Erkenntnis. Nun lassen aber die Versprechungen zu neuen technischen Möglichkeiten Hoffnung aufkeimen, dass Recht weniger Angst, häufiger Rechthaben und damit Zufriedenheit bedeuten kann. Kann Recht berechnet werden, kann auch mit Geld gerechnet werden. Vor allem mit mehr Geld bei weniger Zeitaufwand.

 

Doch was bedeutet das für den Rechtsstaat? Wohnt berechenbarem Recht nicht eine dem von Freiheit und Unabhängigkeit des Richters geprägten Rechtsstaat ferne Kontrolle inne? Eine Kontrolle durch einen – möglicherweise – der Berechnung begehrten Rechts fähigen Dritten, der wirtschaftliche Interessen, jedoch keine Rechtsprechung und Rechtsfortbildung im gesamtgesellschaftlichen Interesse verfolgt? Die sog. Predictive Analytics innewohnende Identifikation des unberechenbaren Richtermenschen als Problem sollte Sorge bereiten.

 

1. Das besorgte Frankreich

 

Im Juni 2019 hallte ein Aufschrei durch die virtuelle Welt des „Legal Tech“: Im LTO-Beitrag „Frankreich beschränkt Legal-Tech-Branche – Baum der Erkenntnis nicht nur im Paradies verboten“ vom 14. Juni 2019 schreibt der Autor:

 

„Ein stumpfes Verbotsgesetz, vorhandene Daten schlicht nicht auswerten zu dürfen, gehört aber sicherlich nicht zu dieser Kategorie von zukunftsorientierten Regeln. Insbesondere ein Verbot, richterliche Entscheidungen zu kontrollieren, ist darüber hinaus eines transparenten Rechtsstaats unwürdig.“[13]

 

Ist der hier in Bezug genommene Art. 33 des LOI n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice (1)[14] eines Rechtsstaats wirklich unwürdig?

 

a) Was hat Frankreich hier geregelt?

 

Gerieben wird sich an

 

II.-Le titre préliminaire du code de justice administrative est ainsi modifié :

1° Les deuxième et troisième alinéas de l‘article L. 10 sont remplacés par trois alinéas ainsi rédigés :

« Sous réserve des dispositions particulières qui régissent l‘accès aux décisions de justice et leur publicité, les jugements sont mis à la disposition du public à titre gratuit sous forme électronique.

« Par dérogation au premier alinéa, les nom et prénoms des personnes physiques mentionnées dans le jugement, lorsqu‘elles sont parties ou tiers, sont occultés préalablement à la mise à la disposition du public. Lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d‘identifier les parties, les tiers, les magistrats et les membres du greffe.

« Les données d‘identité des magistrats et des membres du greffe ne peuvent faire l‘objet d‘une réutilisation ayant pour objet ou pour effet d‘évaluer, d‘analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l‘informatique, aux fichiers et aux libertés. »

 

Übersetzt:

 

II – Der vorläufige Titel des Kodex für Verwaltungsgerichtsbarkeit wird wie folgt geändert:

1. Die Absätze 2 und 3 des Artikels L. 10 werden durch drei Absätze mit folgendem Wortlaut ersetzt:

« Vorbehaltlich der besonderen Bestimmungen über den Zugang zu Gerichtsentscheidungen und die Veröffentlichung von Gerichtsentscheidungen werden die Urteile der Öffentlichkeit kostenlos in elektronischer Form zugänglich gemacht.

« Abweichend von Absatz 1 werden die vollständigen Namen der in der Entscheidung genannten natürlichen Personen, wenn sie Parteien oder Dritte sind, weggelassen, bevor sie der Öffentlichkeit zugänglich gemacht werden. Ist die Offenlegung geeignet, die Sicherheit oder die Privatsphäre dieser Personen oder ihres Umfelds zu beeinträchtigen, so wird auch jedes Element, das die Identifizierung der Parteien, Dritter, Richter und Mitarbeiter der Geschäftsstelle ermöglicht, verdeckt.

« Die Identitätsdaten von Richtern und Mitarbeitern der Geschäftsstelle dürfen nicht zum Zweck oder zur Wirkung der Bewertung, Analyse, des Vergleichs oder der Vorhersage ihrer tatsächlichen oder vermeintlichen Berufspraxis wiederverwendet werden. Ein Verstoß gegen dieses Verbot wird mit den in den Artikeln 226-18, 226-24 und 226-31 des Strafgesetzbuches vorgesehenen Sanktionen geahndet, unbeschadet der Maßnahmen und Sanktionen, die im Gesetz Nr. 78-17 vom 6. Januar 1978 über Informationstechnologie, Dateien und Freiheiten vorgesehen sind. »

 

Vergleichbares wird geregelt unter

 

IV.-Le chapitre unique du titre Ier du livre Ier du code de l‘organisation judiciaire est ainsi modifié :

1° Les deux premiers alinéas de l‘article L. 111-13 sont remplacés par trois alinéas ainsi rédigés :

« Sous réserve des dispositions particulières qui régissent l‘accès aux décisions de justice et leur publicité, les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit sous forme électronique.

« Les nom et prénoms des personnes physiques mentionnées dans la décision, lorsqu‘elles sont parties ou tiers, sont occultés préalablement à la mise à la disposition du public. Lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d‘identifier les parties, les tiers, les magistrats et les membres du greffe.

« Les données d‘identité des magistrats et des membres du greffe ne peuvent faire l‘objet d‘une réutilisation ayant pour objet ou pour effet d‘évaluer, d‘analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l‘informatique, aux fichiers et aux libertés. »

 

Übersetzt:

 

IV – Das einzige Kapitel des Titels I von Buch I des Kodex der Gerichtsorganisation wird somit geändert:

1. Die ersten beiden Absätze des Artikels L. 111-13 werden durch drei so formulierte Absätze ersetzt:

« Vorbehaltlich der besonderen Bestimmungen über den Zugang zu Gerichtsentscheidungen und die Publizität von Gerichtsentscheidungen werden die Entscheidungen der Gerichte der Öffentlichkeit kostenlos in elektronischer Form zugänglich gemacht.

« Die vollständigen Namen der in der Entscheidung genannten natürlichen Personen, wenn sie Parteien oder Dritte sind, werden weggelassen, bevor sie der Öffentlichkeit zugänglich gemacht werden. Ist die Offenlegung geeignet, die Sicherheit oder die Privatsphäre dieser Personen oder ihres Umfelds zu beeinträchtigen, so wird auch jedes Element, das die Identifizierung der Parteien, Dritter, Richter und Mitarbeiter der Geschäftsstelle ermöglicht, verdeckt.

« Die Identitätsdaten von Richtern und Mitarbeitern der Geschäftsstelle dürfen nicht zum Zweck oder zur Wirkung der Bewertung, Analyse, des Vergleichs oder der Vorhersage ihrer tatsächlichen oder vermeintlichen Berufspraxis wiederverwendet werden. Ein Verstoß gegen dieses Verbot wird mit den in den Artikeln 226-18, 226-24 und 226-31 des Strafgesetzbuches vorgesehenen Sanktionen geahndet, unbeschadet der Maßnahmen und Sanktionen, die im Gesetz Nr. 78-17 vom 6. Januar 1978 über Informationstechnologie, Dateien und Freiheiten vorgesehen sind. »

 

Der neue Absatz im Kodex für Verwaltungsgerichtsbarkeit und Kodex der Gerichtsorganisation,

 

« Die Identitätsdaten von Richtern und Mitarbeitern der Geschäftsstelle dürfen nicht zum Zweck oder zur Wirkung der Bewertung, Analyse, des Vergleichs oder der Vorhersage ihrer tatsächlichen oder vermeintlichen Berufspraxis wiederverwendet werden. Ein Verstoß gegen dieses Verbot wird mit den in den Artikeln 226-18, 226-24 und 226-31 des Strafgesetzbuches vorgesehenen Sanktionen geahndet, unbeschadet der Maßnahmen und Sanktionen, die im Gesetz Nr. 78-17 vom 6. Januar 1978 über Informationstechnologie, Dateien und Freiheiten vorgesehen sind. »

 

versetzt also die Welt in Aufregung. Aber warum? Es wird übersehen, dass die Unabhängigkeit des Richters (Charta der Grundrechte der Europäischen Union: Art. 47 Abs. 2 GrCh; Europäische Menschenrechtskonvention: Art. 6 Abs. 1 S. 1 EMRK; in Deutschland: Art. 97 Abs. 1 GG) in ihren Entscheidungen.

 

Die neuen Regelungen Frankreichs verbieten nicht, um „Identitätsdaten“ bereinigte Urteile und Rechtstexte zu bewerten, diese zu analysieren, zu vergleichen oder gar für fragwürdige Glaskugeljuristerei wiederzuverwenden. Sie verbieten ausschließlich die Aggregation von Entscheidungen mit dem Ziel der (Wieder-)Verwendung in Verbindung mit ihren Entscheidungspersonen, etwa im Hinblick auf durch sie zum eigenen Vorteil noch zu treffende Entscheidungen oder einfach nur, um sie in Beziehung zu etwas Sachfernem zu setzen. Dabei kann dieses In-Beziehung-setzen der Bewertung z.B. in der Öffentlichkeit zugänglichen Richterbewertungsportalen im Internet und somit der Schwächung des Vertrauens in die Justiz dienen. Denkbar ist ebenso die öffentliche Einflussnahme auf politisch bedeutsame Gerichtsprozesse vonseiten Prozessunbeteiligter: „Ein Richter, der einen Studenten mit insgesamt 200 EUR Geldstrafe hat davonkommen lassen, obwohl er einen Vierjährigen auf dem Gewissen hat? Der wird auch einen Kriegsverbrecher davonkommen lassen!“ Wo eigentlich überhaupt keine Zusammenhänge bestehen, könnten Glaskugelanbieter Gift in die Gesellschaft mischen. Die betroffene Entscheidungsperson könnte sich hiergegen kaum zur Wehr setzen.

 

Kurz zusammengefasst sind nicht nur Schutzgründe (siehe die aufgeführten Normen und dort deren neue Absätze No. 2), sondern auch Missbrauchsmöglichkeiten erkennbar, denen der französische Gesetzgeber vorbeugen will. Diese Absicht ergibt sich aus dem nachfolgendem Gesetzestext:

 

« Art. L. 111-14.-Les tiers peuvent se faire délivrer copie des décisions de justice par le greffe de la juridiction concernée conformément aux règles applicables en matière civile ou pénale et sous réserve des demandes abusives, en particulier par leur nombre ou par leur caractère répétitif ou systématique.

 « Les éléments permettant d‘identifier les personnes physiques mentionnées dans la décision, lorsqu‘elles sont parties ou tiers, sont occultés si leur divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage.

« Un décret en Conseil d‘Etat fixe, pour les décisions de premier ressort, d‘appel ou de cassation, les conditions d‘application du présent article. »

 

Übersetzt:

 

« Art. L. 111-14 – Dritte können Kopien von Gerichtsentscheidungen bei der Geschäftsstelle des betreffenden Gerichts nach den in Zivil- oder Strafsachen geltenden Regeln und vorbehaltlich missbräuchlicher Aufforderungen, insbesondere durch ihre Anzahl oder durch ihre wiederholte oder systematische Art, anfordern.

« Die Elemente, die die Identifizierung der in der Entscheidung genannten natürlichen Personen ermöglichen, wenn sie Beteiligte oder Dritte sind, werden verschwiegen, wenn ihre Offenlegung die Sicherheit oder die Privatsphäre dieser Personen oder ihres Umfelds zu beeinträchtigen droht.

« Ein Dekret im Staatsrat legt für Entscheidungen erster Instanz, Berufung oder Kassation die Bedingungen für die Anwendung dieses Artikels fest. »

 

Masse, Wiederholung und Systematik implizieren bereits eine missbräuchliche Verwendung von Entscheidungstexten. Welch Missbrauch ist erst durch die Verbindung von Masse, Wiederholung, Systematik und Entscheidungsperson denkbar.

 

b) Frankreich hat klug entschieden. Warum?

 

Aus insbesondere vier wichtigen Gründen:

 

aa) Ein Gericht ist kein Jahrmarkt

 

Das Vermögen einer Vorhersage zukünftiger Entscheidungen einer unabhängigen Person (der Rechtspflege) ist wissenschaftlich nicht belegbar. Der Mensch kann nicht in die Zukunft sehen, reisen und aus solcher zurückkehren. Statistische Auswertungen ergangener Entscheidungen sind eine Interpretation der Vergangenheit, nicht der Zukunft. Ein geschäftliches Angebot dieser Art ist dem eines Wahrsagers vergleichbar. Die deutsche Agentur für Arbeit definiert diesen Beruf (Berufs-ID: 8636), den sie der Freizeitwirtschaft unterordnet, wie folgt:

 

Wahrsager/innen bieten Aussagen und Beratungen anhand wissenschaftlich nicht erklärbarer Methoden an. Ihre Deutungen sehen sie als Möglichkeit, zukünftige Ereignisse vorherzusagen oder anderweitig verborgenes Wissen zu erlangen wie auch als Lebens- und Entscheidungshilfe für Ratsuchende.

 

Erfolgsaussichten sind selten absehbar. Dafür muss ein Rechtsfall einfach gelagert und die Rechtslage weitgehend geklärt sein. Wer ohne Sachverhaltskenntnis und Rechtsprüfung Vorhersagen über eine zukünftige Entscheidung treffen können will, die über den reinen Unterhaltungscharakter hinausgehen, weckt den Verdacht der Entscheidungsmanipulation.  

 

bb) Fortschritt bedeutet nicht Wiederholung der Vergangenheit; keine Gleichheit im Unrecht

 

Menschen lernen und verändern sich.

 

Wissen kommt jeden Tag hinzu und bereichert eine noch zu treffende Entscheidung. Dieses „neue“ Wissen macht andere als die alten Entscheidungen nicht falsch oder ablehnenswert, erst recht nicht die Entscheidungsperson. Neues Wissen kann sinnvoll im Rahmen der Rechtsfortbildung, aber auch notwendig aufgrund einer Gesetzesänderung sein. Rechtsfortbildung würde zulasten der Rechtspflege unterdrückt, müssten sich Richterinnen und Richter an ihren alten Entscheidungen festhalten lassen.

 

Einzelfälle können aufgrund eines einzigen Sachverhalts-Details die Wiederholung einer Entscheidung in einem hierin abweichenden Einzelfall der Vergangenheit unvertretbar machen. Diese Abweichung im noch zu entscheidenden Einzelfall wird grundsätzlich nur ein Mensch erkennen und, so insbesondere die hiervon betroffene Prozesspartei selbst, hierauf hinweisen müssen.

 

Nicht zuletzt gibt es keine Gleichheit im Unrecht, d.h. es gibt keinen Anspruch auf Fehlerwiederholung in der Rechtsprechungspraxis.[15]

 

cc) Manipulationswerkzeug und Waffe gegen die richterliche Unabhängigkeit

 

Die richterliche Unabhängigkeit ist für einen Rechtsstaat charakteristisch. Würde eine richterliche Entscheidungsperson mit Ergebnissen eines „Vorhersage-Tools“ konfrontiert, würde eine Situation des Angriffs auf ihre Unabhängigkeit geschaffen. Warum ein Angriff auf die richterliche Unabhängigkeit? Weil die Konfrontation mit Entscheidungen der Vergangenheit Rechtfertigungserfordernisse auslöst, die mit dem aktuellen Einzelfall, der zur Entscheidung übertragen worden ist, nichts zu tun haben. Es werden Nebenschauplätze aufgemacht, Kriegsschauplätze, in denen Entscheidungspersonen plötzlich sich selbst verteidigen müssen. Ihrer Entscheidungsrolle werden sie, zumindest vorübergehend, enthoben. Das kommt einem Entzug der Richteraufgabe gleich. Die Richteraufgabe kann dann unter Umständen nur wiedererlangt werden, wenn die Entscheidungsperson sich gefügig verhält.

 

Der Mensch ist dafür bekannt, gerne den Weg des geringsten Widerstands zu wählen. Insofern könnte sich auch ein menschlicher Richter in die vom Vorhaltenden gewünschte Entscheidung „flüchten“. Ausweislich des LTO-Beitrags würden die in Rede stehenden „Tools“ (dt. Werkzeuge, Instrumente) vielmehr dem Auslösen von Scham- und Schuldgefühlen sowie Angst vor Gesichtsverlust, mithin der Manipulation, als einem sachlichen, fundierten Vortrag frei von Unterstellungen dienen:

 

„Eine andere Version erzählt der französische Anwalt Michäel Benesty: Dieser hat in seiner Freizeit zusammen mit einem befreundeten Experten für Maschinelles Lernen ein Tool entwickelt, das französische Rechtsprechung auswerten kann. Dabei seien beiden enorme Unausgewogenheiten aufgefallen, wenn es um die Rechte von Ausländern und vor allem Asylbewerbern ging. So hätten an ein und denselben Gerichten einige Richter fast alle Anträge auf Asyl abgelehnt, während ihre Kollegen fast alle Anträge angenommen hätten. 

Eine vernünftige Erklärung für diese Diskrepanzen konnte der Jurist nach eigenen Angaben nicht finden – außer dass die Richter jeweils nicht das Gesetz, sondern womöglich ihre persönliche Weltanschauung zur Grundlage ihrer Entscheidung gemacht haben.“[16]

 

Die Konfrontation mit auf Daten der Vergangenheit beruhenden Ergebnissen, die mit dem noch zu entscheidenden Einzelfall nichts zu tun haben, gleicht dem Einsatz einer Waffe gegen den Richter und mit ihm die richterliche Unabhängigkeit. Die anwaltliche Prognose für die Mandantin bzw. den Mandanten, basierend auf der kanzleieigenen und vielleicht noch im Kollegenkreis gemachten Prozesserfahrung, ist hiervon wohl kaum erfasst. Die für eine auch nur ansatzweise zweckdienliche Prognose ausreichende Datenmenge kann hier kaum zusammengetragen werden.

 

dd) Die Waffe gegen die Gesellschaft

 

Würden „Predictive Analytics“, in politisch bedeutsamen Prozessen eingesetzt, wäre es leicht möglich, die Daten interessengerecht zu manipulieren, etwa um den unliebsamen Richter entfernen lassen zu können oder ihn durch den Druck der Öffentlichkeit, gerne wird hier das sog. „gesunde Volksempfinden“ angeführt, zu einer seinem Gewissen widerstrebenden Entscheidung hin zu drängen. Eine solche Verwendung ist bereits bekannt als „Malicious Use of Artificial Intelligence“[17]

 

c) Fake News

 

Im LTO-Artikel wird ausgeführt:

 

„Der französische Staat droht somit seinen Bürgern mit einer mehrjährigen Gefängnisstrafe, wenn diese öffentlich verfügbare Informationen in einer bestimmten Art und Weise auswerten, um daraus Erkenntnisse zu gewinnen. Dies losgelöst davon, ob dies aus kommerziellen oder wissenschaftlichen Gründen geschieht oder einfach nur um zum Spaß herauszufinden, ob man überhaupt etwas findet.“ 

 

Diese Darstellung entspricht nicht der Rechtswirklichkeit. Die Verbote des Kodex für Verwaltungsgerichtsbarkeit sowie des Kodex der Gerichtsorganisation richten sich gerade nicht an den Bürger, der aus Freizeit- und wissenschaftlichen Interessegründen Auswertungen von veröffentlichten Urteilen ohne den Bezug zur Entscheidungsperson vornimmt. Hier läge nach den oben aufgezeigten Kriterien des Art. 33 nicht einmal ein Hinweis auf missbräuchliche Urteilsanfragen vor. Die oben genannten Normen verbieten ausschließlich die Herstellung einer Verbindung zwischen den Entscheidungen und den Identitäten der Entscheidungspersonen sowie das Ableiten von Schlüssen aus dieser Verbindung mit einer (Wieder-)Verwendungszielsetzung. 

 

Es macht wirtschaftlich keinen Sinn, in der Zukunft liegende Entscheidungen in den Verfahren Dritter, die selten vor Urteilsveröffentlichung bekannt sind, aus reinem Spaß vorhersagen zu wollen. Sinn macht dieser kosten- und zeitaufwändige Prozess vor allem dann, wenn unmittelbar Vor- oder Nachteile durch eine richterliche Entscheidung erwartet werden. Genau hier wird das Interesse an und die reale Gefahr der Einwirkung auf die richterliche Unabhängigkeit deutlich.

 

d) Manipulation durch Verzerrung der Lebenswirklichkeit

 

Im LTO-Artikel wird die Frage gestellt:

 

Angst vor „Predictive Analytics“?

 

Schwarze Schafe gibt es in jeder Berufsgruppe. Doch dieser statistisch eher bedeutungslose[18] Umstand der Lebenswirklichkeit rechtfertigt nicht die Schwächung des Rechtsstaats durch das (indirekte) Fordern einer Möglichkeit der Einflussnahme auf den Richter als Entscheidungsperson.

 

Solches „Legal Tech“ schafft vor allem technische „Lösungen“ für Probleme, die wir in der dargestellten Form noch oder gar nicht haben. Da ist es kein Wunder, dass auch der Gesetzgeber, wie hier der Französische, den Schutz des Rechtsstaates, in Gestalt der richterlichen Unabhängigkeit, konkretisieren und sichern muss.

 

e) Verzerrung der Bedeutung von Recht und Rechtsstaat

 

Denjenigen, die eine Entscheidung öffentlicher Gewalt für fehlerhaft halten, steht in einem Rechtsstaat der Rechtsweg offen, um sie auf den Einklang mit geltendem Recht hin überprüfen zu lassen. Diejenigen, die Fehler oder eine sonstig nachteilige Entwicklung während eines gerichtlichen Verfahrens bemerken, müssen hierauf hinweisen und ggf. gebotene Rechtsbehelfe einlegen. „Predictive Analytics“ sind aufgrund ihrer Rückwärtsgewandtheit und Bezugnahme auf Verfahren Dritter jedoch völlig ungeeignet, noch zu treffende Entscheidungen im Einzelfall auf Rechtskonformität hin zu überprüfen. 

 

2. Realitätsferne aus technischer Sicht

 

Die Darstellungen der Möglichkeiten von „Predictive Analytics“ richterlicher Entscheidungen liegen weit fernab der Realität. Bis heute fehlt es Maschinen[19] an hinreichendem semantischen Verständnis, d.h. an dem Verständnis für die Bedeutung von Worten und Wortzusammenhängen. Erst wenn wir hier in Forschung und Entwicklung entscheidend vorangeschritten sind, wird es möglich sein, einigermaßen verlässlich automatisierte Schlüsse aus juristischen Texten ziehen zu können. Derzeit handelt es sich v.a. um subjektiv gefärbte Vermutungen der Verwender, basierend auf subjektiv ausgewählten und zusammengestellten Daten. Mit subjektiven Zielsetzungen.

 

Es soll nicht in Abrede gestellt werden, dass die Analyse von richterlichen Entscheidungen der Vergangenheit zur Selbstkontrolle und Verbesserung der Justiz beitragen kann. Dies kann in sehr einfach gelagerten, repetitiven Fällen schon heute möglich sein; gerade dort, wo sich Formularurteile anbieten. Hier genügen Wahrscheinlichkeiten, die sog. Künstliche Intelligenz liefern kann. Sog. Künstliche Intelligenz vermag jedoch nicht zu klären, warum ein Fehler passiert ist: Die Ursachensuche und -beseitigung muss wiederum von Menschen vorgenommen werden, die hierzu befugt sind.

 

Eine eindeutige Aussage über die noch zu fällende richterliche Einzelfallentscheidung werden diese Technologien nicht zuletzt nie treffen können, weil nur ein kleiner Umstand des Einzelfallsachverhalts eine andere Entscheidung vertretbar machen kann. Insofern ist eine „bessere“ Entscheidung als die des menschlichen Richters nicht zu erwarten. Auch Rechtsfrieden liegt fern, wenn eine andere, günstigere Entscheidung stets möglich bleibt.

 

3. Der Umgang mit dem Recht ist ein wichtiger Indikator für den Zustand einer Gesellschaft

 

Normen fassen Recht so sparsam und sorgfältig wie nur möglich, dabei kurz und verhältnismäßig schnell erfassbar zusammen. Gerichte füllen diese Normen fallbezogen, d.h. wiederum ökonomisch mit Inhalt aus.

 

Schillernde Ansätze wie „Predictive Analytics“ verfolgen bei genauem Hinsehen in jeder Hinsicht das Gegenteil: sie produzieren Masse, um hieraus vermeintlich schnellere und bessere Rechtsergebnisse zu liefern. Sie können jedoch nicht erklären, was „besser“ im Einzelfall bedeutet, weil die Argumentation entweder spärlich ist, fehlt, oder aus anderen Gründen schwer nachvollziehbar[20] ist. Die vorgeschlagenen Lösungsansätze sind zudem ineffizient und unwirtschaftlich, weshalb nach aufwändiger Datensammlung Wege gefunden werden müssen, die Informationsvielfalt zu reduzieren bzw. zu kanalisieren. Der menschliche Richter benötigt nicht zuletzt keine steten, aufwändigen und teuren Updates, die im Grunde nur große und wirtschaftlich starke Datenkonzerne leisten können.

 

Recht muss flexibel auf sich stetig verändernde Umstände in der Gesellschaft anwendbar sein. Ist es das nicht mehr, etwa aufgrund von Automatisierung mithilfe von Altdaten, tritt eine Lähmung des Rechts und mit ihm der Gesellschaft ein. Der Automatisierung wohnt die Zentralisierung und Abhängigkeit inne; der klassischen Rechtsprechung durch den menschlichen Richter die Dezentralisierung und Unabhängigkeit (voneinander). Wird Rechtsprechung, oder besser Rechtvorsprechung, auf wenige datenreiche und wirtschaftsstarke Anbieter konzentriert, ist der seine Glaubwürdigkeit vor allem aus richterlicher Unabhängigkeit gewinnende Rechtsstaat abgeschafft.

 

Berechenbares Recht ist daher vielmehr vor schwindender (Rechts-)Meinungsvielfalt geprägtes, erstarrendes Recht. Ein werdendes Korsett, das von Rechtsfremden nach Bedarf geschnürt wird. In einer von Freiheit geprägten Gesellschaft kann dies nicht erstrebenswert sein.

 

II. Vorhersehbarkeit und (Kosten-) Kontrolle auf Kosten der Qualität

 

Der menschliche Richter wird vor allem aus einem Grund der Maschine stets vorausbleiben: Er ist in der Lage, kreative Lösungen zu finden, die von dem Gesetz in aller Klarheit nicht erfassbare Einzelfälle nun einmal erfordern. „Entscheidungen“ sog. Künstlicher Intelligenz, und diese nicht verstanden als ein Gegenstand von Science-Fiction-Literatur, basieren auf von Menschen in der Vergangenheit vorgegebenem Wissen, keinem kreativen Schaffensakt. Im Rahmen dieses Wissensspektrums muss die Maschine eine Lösung finden. Eine andere als menschlich denkbare Entscheidung ist darüber hinaus nicht erwünscht. Es geht schließlich um mehr Vorhersehbarkeit und (Kosten-)Kontrolle.

 

Doch ein von einem Verfahrensbeteiligten für wichtig erachteter Umstand, der außerhalb dieses Spektrums liegt, bliebe nicht zuletzt unberücksichtigt und dürfte schon deshalb zu einem nicht akzeptierten Ergebnis führen – auch wenn der Rechenvorgang und das Rechenergebnis per se sehr wahrscheinlich korrekt sind. D.h. aus einem einwandfrei arbeitenden Algorithmus folgt keine juristisch gute Entscheidung im Einzelfall. Sie folgt auch nicht aus im Wissensbestand vorhandenen, juristisch guten Urteilen in anderen Fällen. Rechtsfrieden folgt mangels Eindeutigkeit nicht automatisch aus einem automatisiert gefassten Urteil.

 

Eine juristische Entscheidung von guter Qualität folgt vielmehr aus der auch im Nachhinein nachvollziehbaren Herstellung von Zusammenhängen zwischen dem durch (einfache) Sprache vermittelten Sachverhalt und der anzuwendenden Rechtssprache, wobei die Zusammenhänge sich wiederum aus der Bedeutung von Worten und Wortzusammenhängen speisen. Maschinen, denen das Verständnis für Semantik fehlt, können schon deshalb keine „bessere“ juristische Entscheidung treffen.

 

III.  Ist die Qualität gar egal, wenn das Ergebnis nur recht genug erscheint?

 

Warum gibt es aber überhaupt interessierte Resonanz? Wie kann es sein, dass sich solche surrealen und von persönlichen Emotionen geleiteten Vorstellungen von Recht und Rechtsstaat als etwas gesellschaftlich Erstrebenswertes festsetzen und verbreiten?

 

Oben wurde unter Verweis auf Heidegger[21] zusammengefasst:

 

Denken ist etwas, das erst erlernt werden muss. Dafür bedarf es Eigeninitiative, intrinsischer Denkbereitschaft. Denken ist hiernach nicht nur ein schlichter Informationsverarbeitungsvorgang, der auf der Kommunikation und Funktion von physischen Komponenten nach bestimmten Vorgaben eines anderen beruht, sondern vor allem ein auf intrinsischer Motivation beruhendes, erlerntes, höchstpersönliches Entwickeln und Gestalten von Gedanken. Dies ist einer Maschine, in Anbetracht des Stands der Technik, nicht möglich. Höchstpersönlichkeit ergibt sich auch nicht aus mangelnder Nachvollziehbarkeit des Prozesses der maschinellen Informationsverarbeitung.

 

Gar eine Ignoranz gegenüber den inneren Vorgängen formulierte Turing:

 

„An important feature of a learning machine is that its teacher will often be very largely ignorant of quite what is going on inside, although he may still be able to some extent to predict his pupil’s behaviour.”[22]

 

Übersetzt:

 

„Ein wichtiges Merkmal einer lernenden Maschine ist, dass ihr Lehrer oftmals nicht genau weiß, was im Inneren vor sich geht, obwohl er möglicherweise das Verhalten seines Schülers noch einigermaßen vorhersagen kann.“

 

Hinzu kommt das Phänomen der sog. psychologischen Distanz. Psychologisch distanzierte Dinge (Objekte, Geschehen) sind solche, die nicht der unmittelbar erlebten Realität angehören. Sie können gedacht, konstruiert, wiederaufgerufen, aber nicht direkt wahrgenommen werden. In der Folge mangelnden Wissens wird abstrahiert. Annahmen und Bewertungen werden im Rahmen der Abstraktion beispielsweise von eigenen Emotionen und Erinnerungen abgeleitet und auf andere Menschen projiziert. Schemata erleichtern zudem das Einordnen komplexer Situationen. Befehle sowie An- und Vorgaben Dritter können ebenso die Wahrnehmung von Dingen als real oder nicht real beeinflussen.[23] Es ist also möglich, Menschlichkeit, Denkfähigkeit und Rechtschaffenheit auf Maschinen zu projizieren, auch wenn das Wissen grundsätzlich vorliegt, dass diese nicht menschlich, denkfähig oder rechtschaffen sind. Denken braucht offenkundig die intrinsische Bereitschaft, das vorhandene Wissen auch anzuwenden.

 

Der beschriebene Schluss des Menschen auf Menschlichkeit und Denkfähigkeit eines Roboters ist nicht unbekannt. Verwiesen werden kann hier u.a. auf ELIZA[24] und den Show-Robot Sophia[25]. Für die Interaktion mit ihnen, ihre Wirkung und ihre Akzeptanz ist es auch nicht erforderlich, dass sie denken oder korrekt „handeln“. Es stellt sich also die Frage, würde ein sog. Robo Judge ähnliche Resultate bei Verfahrensbeteiligten hervorrufen? Ist eine qualitativ gute juristische Entscheidung vielleicht sogar egal, solange sie nur „recht“ erscheint?

 

1. Das Chinese Room Experiment

 

Der amerikanische Philosoph John R. Searle formulierte 1980 in „Minds, brains, and programs“[26] die Vorstellung, er, in Unkenntnis der chinesischen Sprache, säße in einem verschlossenen Raum. Mit ihm eingeschlossen: eine umfangreiche chinesische Symboldokumentation samt Anleitung in seiner Muttersprache, die ein Herstellen von Zusammenhängen in der chinesischen Symbolik erlaube. Er sei nun in die Lage versetzt, von außen in den Raum hineingereichte Fragen zu ihm vorliegenden chinesischen Inhalten zu beantworten. Außerhalb des Raums würde man aufgrund seiner wiederum herausgereichten Antworten annehmen, er sei der chinesischen Sprache mächtig.

 

Aufzeigen wollte Searle mit diesem Gedankenexperiment u.a., dass Computerprogramme die Bedeutung der verarbeiteten und ausgegebenen Inhalte nicht verstehen und nicht verstehen müssen, weil die Zusammenhänge mithilfe der von Menschen vorgegebenen Regeln hergestellt werden können. Von der Zeichenwidergabe allein könne also nicht auf ein Verständnis der Bedeutung eines Symbols geschlossen werden. Die Simulation von menschlicher Intelligenz[27] beruhe vielmehr auf einem Fehlschluss: Der Mensch unterstellt (semantisches) Verständnis aufgrund seiner durch das erhaltene Ergebnis beeinflussten und eingeschränkten Wahrnehmung außerhalb des verschlossenen Raumes.[28]

 

2. Die künstliche Prüfungssituation kennt der Jurist bereits

 

Was bedeutet das Chinese Room Experiment für die vorliegende Fragestellung? Kann es einen „Robo Judge“, also künstlich intelligenten Richter geben, wenn die Maschine in der Lage ist, juristisch relevante Zusammenhänge herzustellen?

 

Das Gedankenexperiment von Searle leidet vor allem an dem Problem der Künstlichkeit: Es beschreibt eine gestellte Situation, in der die in den Raum hineingereichten Fragen begrenzt, vollumfänglich vorhersehbar und anhand der vorhandenen Dokumentation sowie den anzuwendenden Regeln sicher beantwortet werden können. Die Realität, erst recht die Richterrealität, kann hiermit nicht abgebildet werden.

 

Setzte man einen deutschsprachigen Nichtjuristen in den Raum, der nicht vorhersehbare (in Deutsch formulierte) Rechtsfragen beantworten soll, müsste der Raum eigentlich eine (von außen nicht erkennbare) Bibliothek mit rechtswissenschaftlichem Schwerpunkt sein. Nur könnte man die Zeit nicht vorherbestimmen, die benötigt würde, um die jeweils anzuwendenden Regeln zu lernen und Rechtsfragen zufriedenstellend zu beantworten. Selbst bei einer gestandenen Richterperson müssten die Fragemöglichkeiten eingeschränkt, z.B. auf das Rechtsgebiet begrenzt werden. Nun könnte man argumentieren: ein Gesetzestext, ein BGB- und ZPO-Kommentar genügen für eine vertretbare Antwort im Zivil- und Zivilprozessrecht. Diese Situation entspricht schließlich in Grundzügen der Klausurbearbeitung im juristischen Staatsexamen.

 

Doch genau da liegt das Problem: Jeder Fall ist im Examen vorbestimmt und mit den erlaubten Hilfsmitteln nebst zielgerichtet über längere Zeit erlerntem Grundwissen in der vorgegebenen Zeit lösbar. Die Prüfungssituation, im Examen genauso wie auch im Chinese Room Experiment, ist eine künstliche, keine reale. Den Unterschied bildet im Wesentlichen das relevante Publikum außerhalb des Raumes: hier sind es die Klausurkorrektoren, die aufgrund des Geschriebenen Rückschlüsse auf Wissen und Können des jeweiligen Prüflings im Raum ziehen. Auch ihre Wahrnehmung ist eingeschränkt. Auch sie können über die wirklichen Fähigkeiten des Prüflings im Raum getäuscht werden, etwa, weil dieser die Klausurlösung bereits kannte.

 

Das Chinese Room Experiment zeigt daher nicht nur den Aspekt der Täuschung des Menschen auf; es täuscht im Grunde selbst über die wahren Möglichkeiten sog. Künstlicher Intelligenz.

 

3. Was ist dann „künstliche juristische Intelligenz“?

 

Der Mangel an Definierbarkeit „Künstlicher Intelligenz“ folgt der fehlenden einheitlichen Definition von (menschlicher) Intelligenz, an die „Artificial Intelligence“ originär anlehnt ist. Forscher sind sich bis heute uneins, was überhaupt Intelligenz ist und wie und welche Fähigkeiten, zu welchen Anteilen, Intelligenz bestimm- und messbar machen. Die Gesellschaft bestimmt zudem mit ihren stets im Wandel befindlichen Normen und Werten die als „intelligent“ wahrgenommenen Eigenschaften mit. Die – bis heute bestehende – Uneinigkeit der Experten über Intelligenz fasste Edwin G. Boring 1923, also vor knapp 100 Jahren, zusammen mit der Feststellung:[29]

 

„Intelligence is what the test tests (…), until further scientific observation allows us to extend the definition.“[30]

 

Intelligenz ist was der Test testet, solange uns keine weitere wissenschaftliche Beobachtung zum Überdenken veranlasst.

 

Intelligenz ist also nur ein Zirkelschluss.

 

Künstliche Intelligenz ist, insbesondere unter Verweis auf das Chinese Room Experiment, vor allem eine Sinnestäuschung. Auch ein „Robo Judge“ wäre nicht etwa intelligent, weil er, ähnlich einem menschlichen Richter, gute, oder auch nur vertretbare Ergebnisse liefert. Er wäre intelligent, weil er in einer vorgegebenen Testsituation den vom Tester selbst festgelegten Anforderungen entsprochen hat. Und die können bekanntlich besonders niedrig sein, wenn das finanzielle Interesse besonders hoch ist.

 

C. Will man die Menschen daran hindern, dass sie in Freiheit handeln, so muss man sie daran hindern, zu denken

 

Zurück zur Eingangsfrage: Kann man, in Anlehnung an René Descartes‘ „Cogito ergo sum“ behaupten, dass in dem Moment, in dem ein „Rechtberechnungsautomat“ Informationen verarbeitet, dieser denkt und allein aus diesem Grund als eine elektronische Person existiert? Kann es also einen künstlich intelligenten Richter, den „Robo Judge“, geben?

 

Nach dieser Ansicht nicht. Das für eine eigenständige Rechtspersönlichkeit erforderliche Denken ist von Freiheit geprägt, die sich vor allem dort zeigt, wo das Denken von denkbaren Pfaden abweichen kann. Doch da die Anforderungen an sog. Künstliche Intelligenz selbst und niedrig festgelegt werden können, ist auch der „Robo Judge“ grundsätzlich denkbar. Vor allem dann, wenn die Täuschung überwiegend unbemerkt oder nicht wirksam bekämpft in den Vordergrund rückt.

 

Die eigentliche Frage muss daher lauten:

 

Kann es wirklich der Wille einer freiheitlichen Gesellschaft sein, die Anforderungen an das Recht und den Rechtsstaat herabzusetzen?

 

Der einzelne Mensch kann frei für sich selbst entscheiden, ganz wie Descartes, dass er die Anforderungen an sich selbst geringhält, um sich selbst nicht zu enttäuschen. Wer als Mensch den Widerspruch und damit den Austausch mit anderen scheut, um sich selbst nicht hinterfragen zu müssen, der kann sich für den Rückzug entscheiden. Doch ein Rechtsstaat darf die Anforderungen an sich selbst nie reduzieren, um Enttäuschungen, sich selbst und anderen gegenüber, zu vermeiden. Recht ist Meinungsvielfalt, Austausch und Streit: Aus einem Rechtsstreit wird, so man sich nicht einigen kann, stets mindestens eine Partei als enttäuschter Verlierer herausgehen. Das ist jedoch kein Makel. Genauso wenig ist die richterliche Gedanken- und Entscheidungsfreiheit ein Makel – sie ist die wohl wichtigste Säule eines Rechtsstaates.

 

Auf lange Sicht ist das Ziel der Automatisierung richterlicher Entscheidungen in Gestalt des noch cool und zukunftsbewusst anmutenden „Robo Judges“ gefährlich. Die Automatisierung der Rechtsfindung zerstört den Meinungs-Pluralismus, den Austausch und vor allem die Fortentwicklung des Rechts. Denken dürfen ist Freiheit. Frei denken lassen sichert Freiheit.

 

„Will man die Menschen daran hindern, daß sie in Freiheit handeln, so muß man sie daran hindern, zu denken, zu wollen, herzustellen, weil offenbar all diese Tätigkeiten das Handeln und damit auch Freiheit in jedem, auch dem politischen Verstande implizieren.“[31]

Hannah Arendt

V

V


[1]  René Descartes, Discours de la méthode pour bien conduire sa raison et chercher la verité dans les sciences, Ian Maire, 1637. 

[2]  Das generische Maskulinum dient der Erleichterung des Leseflusses und soll jede geschlechtliche Identität erfassen.

[3]Aristoteles, Metaphysik, zwischen 348 und 322 v. Chr.

[4]  Der Begriff Maschine soll formunabhängig auch auf einem Rechner betriebene Computerprogramme meinen.

[5]  Siehe oben: „Ich denke, also bin ich (…)“ nach Descartes.

[6]  Siehe hierzu Otto, Ri 2018, 68 ff.

[7]  Siehe hierzu Otto, Ri 2018, 136 ff.

[8]  Siehe hierzu Otto, Ri 2018, 68 (70).

[9]  Siehe hierzu Otto, Ri 2018, 68 (70).

[10]  Siehe hierzu Otto, Ri 2018, 68 (80).

[11]  Heidegger, M., Was heißt denken?, I, 1954, Max Niemeyer Verlag Tübingen.

[12]  Arendt, H., Menschen in finsteren Zeiten, 1989, S. 25.

[13]  Kuhlmann, Baum der Erkenntnis nicht nur im Paradies verboten, LTO vom 14. Juni 2019, https://www.lto.de/recht/zukunft-digitales/l/frankreich-legal-tech-beschraenkung-predictive-analysis-verbotene-erkenntnis/ (zuletzt abgerufen am 3. August 2019).

[14]  LOI n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice (1), abrufbar unter https://www.legifrance.gouv.fr/eli/loi/2019/3/23/2019-222/jo/article_33 (zuletzt abgerufen am 3. August 2019).

[15]  Vgl. BVerfGE 50, 142, 166.

[16]  Kuhlmann, Baum der Erkenntnis nicht nur im Paradies verboten, LTO vom 14. Juni 2019, https://www.lto.de/recht/zukunft-digitales/l/frankreich-legal-tech-beschraenkung-predictive-analysis-verbotene-erkenntnis/ (zuletzt abgerufen am 3. August 2019).

[17]  Vgl.: Brundage, Miles, Avin, Shahar et al., „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, Februar 2018, Seite 9 https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 21. April 2018); Otto, Ri 2018, 68 (82).

[18]  Eine Darstellung einer hohen Quote von (Macht-)Missbrauchsfällen, z.B. Rechtsbeugung, fehlt, um die praktische Relevanz von „Access to better Justice“ hervorzuheben, die im LTO-Beitrag pauschal vertreten wird.

[19]  Allgemein in Abgrenzung zum Mensch und Tier.

[20]  Siehe hierzu Otto, Ri 2018, 136 ff.

[21]  Heidegger, M., Was heißt denken?, I, 1954, Max Niemeyer Verlag Tübingen.

[22] Turing, A. M., „Computing Machinery and Intelligence“ in Mind – A Quarterly Review of Psychology and Philosophy, Vol. LIX, Nr. 236, October 1950, S. 458, https://academic.oup.com/mind/article/LIX/236/433/986238 (zuletzt abgerufen am 4. August 2019).

[23]  Absatz aus Otto, Ri 2018, 68 (78 f.) mwN.

[24]  Weizenbaum, ELIZA – A Computer Program For the Study of Natural Language Communication Between Man and Machine“, Communications of the ACM/Computational Linguistics, Vol. 9, No. 1, Januar 1966, http://web.stanford.edu/class/linguist238/p36-weizenabaum.pdf (zuletzt abgerufen am 4. August 2019).

[25]  Otto, Ri 2018, 68 (77 ff.).

[26]Searle, J. R., „Minds, brains, and programs“ (1980), Behavioral and Brain Sciences 3 (3): 417-457, OCR Dokument abrufbar unter http://cogprints.org/7150/1/10.1.1.83.5248.pdf (zuletzt abgerufen am 28. Juli 2019).

[27]  Otto, Ri 2018, 68 (71).

[28]  Zum Problem der sog. psychologischen Distanz, Otto, Ri 2018, 68 (78 f.).

[29]  Otto, Ri 2018, 68 (71 f.).

[30]  Boring, E. G., „Intelligence as the Tests Test It“, New Republic 36 (1923), 35-37.

[31]Arendt, H., Freiheit und Politik, in „Zwischen Vergangenheit und Zukunft. Übungen im politischen Denken I“, 1994,  S. 204.

 

Titelbild: © Willyam via Adobe Stock, #149929818