Ri 03/2020: down the rabbit hole.

Ri 03/2020: Navigation

Ri 03/2020: Beitrag

Künstliche Intelligenz (KI) in der deutschen juristischen Pop-Literatur

Eine kritische Auseinandersetzung mit etablierten falschen Glaubenssätzen

Claudia Otto

„Wie die Tiere ist der Mensch von Natur ein nachahmendes Wesen. Nachahmung ist ihm Bedürfnis, doch wohlgemerkt unter der Bedingung, dass sie leicht ist; aus diesem Bedürfnis wird die Macht der Mode geboren. Mag es sich nun um Meinungen, Ideen, literarische Äußerungen oder einfach nur um die Kleidung handeln, wie viele wagen es, sich ihrer Herrschaft zu entziehen. Nicht mit Beweisgründen, sondern durch Vorbilder leitet man die Massen. Jedem Zeitalter drückt eine kleine Anzahl von einzelnen ihr Siegel auf, das die Masse unbewusst nachahmt. Aber diese einzelnen dürfen sich nicht allzu weit von den überkommenen Ideen entfernen.“

Gustave Le Bon, „Psychologie der Massen“, 1895[1]

I. Juristische Pop-Literatur – Ein fruchtbarer Nährboden für Ideologiebildung

Seit Anfang 2018[2] haben sich Juristen[3] vermehrt mit dem Thema Künstliche Intelligenz[4] auseinandergesetzt. Das wäre dann lohnend, wenn die rechtswissenschaftliche Forschung dadurch weitergebracht werden würde. Leider perpetuieren sich seit längerer Zeit sachlich falsche Informationen, eingebettet in Rechtsinformationen, die tatsächlich den einfachen juristischen Grundkenntnissen zuwiderlaufen. Eine kritische Auseinandersetzung findet meist nicht statt.[5] Andere Autoren und vor allem junge Juristen greifen die fehlerhaften Informationen auf und verbreiten sie weiter. Auffällig ist dabei auch, dass die Ergebnisse der rechtlichen Analysen mit technischem Bezug leider selten durch die juristischen Fachverlage einer Prüfung auf sachliche Richtigkeit unterzogen werden.

Dies resultiert in einer (gefährlichen) Verschiebung hin zu einer juristischen Populärliteratur (im Folgenden: Pop-Literatur). Dabei handelt es sich um Werke von Autoren, die beliebte Interessengebiete des Zeitgeistes orientiert an der eigenen Popularität und der Nachfrage bearbeiten. Juristen diskutieren darin oft über Vorstellungen und Gefahren sog. Künstlicher Intelligenz[6], die nicht real sind. Sie verzerren die Wirklichkeit zu einer absurden, dem Science-Fiction-Genre nahekommenden Szenerie. Dabei ist diese Verzerrung durch die irreführende Darstellung als Fachliteratur, teilweise in umfangreichen Kompendien renommierter Fachverlage, für den durchschnittlichen Leser nicht zu erkennen. Die vorgenannte Perpetuierung der Falschinformationen wird dadurch ermöglicht.

Wir erleben eine – leider nicht unbekannte – Verfestigung einer Ideologie unter dem Deckmantel der Rechtslehre, die ihr wahres Gesicht in der Zukunft noch zeigen wird: Irgendwann weiß die deutsche Rechtswissenschaft Fakten und Fiktion nicht mehr zu unterscheiden. Dieser Beitrag soll aufklären und v.a. anhand von Le Bons Psychologie der Massen erklären, wie falsche Glaubenssätze sich auch in gebildeten Köpfen festsetzen können:

„Man versteht den Einfluss der Wiederholung auf die Massen gut, wenn man sieht, welche Macht sie über die aufgeklärtesten Köpfe hat. Das Wiederholte setzt sich schließlich in den tiefen Bereichen des Unterbewussten fest, in denen die Ursachen unserer Handlungen verarbeitet werden. Nach einiger Zeit, wenn wir vergessen haben, wer der Urheber der wiederholten Behauptung ist, glauben wir schließlich daran.“[7]

___STEADY_PAYWALL___

II. Die Etablierung falscher Glaubenssätze durch juristische Pop-Literatur

Le Bon zeigte auf, mit welchen Mitteln sich falsche Glaubenssätze etablieren können, sogar unter den „aufgeklärtesten Köpfen“ [8]. Diese drei Mittel sind: Beispiele als reine Behauptungen, Wiederholungen sowie Übertragung.

Die juristische Pop-Literatur weist diese drei Merkmale gleichfalls auf:

1. Unbelegte Behauptungen

„Die reine, einfache Behauptung ohne Begründung und jeden Beweis ist ein sicheres Mittel, um der Massenseele eine Idee einzuflößen.

(…) so muss man durch raschen Einfluss auf sie wirken. Der erfolgreichste ist das Beispiel.“[9]

Der größte erkennbare Mangel der juristischen Pop-Literatur ist die fehlende Recherchetiefe. Nahezu jeder der Beiträge lässt Belege für die Wahrheit der Darstellungen missen. Juristische Pop-Literatur begnügt sich dabei mit schlichten Behauptungen und teilweise fiktiven Beispielen. Begründungen fehlen entweder vollständig oder sind infolge ihrer Unverständlichkeit bzw. Unwahrheit[10] schlicht unbrauchbar für die weitere wissenschaftliche Auseinandersetzung. Die Beiträge enthalten sehr oft Aneinanderreihungen technischer Begriffe, gar Formeln, die Expertise andeuten sollen. Diese erweisen sich bei genauerer Betrachtung jedoch oft als fehlerhaft gebraucht. Soweit Quellen für technische Ausführungen angegeben werden, sind dies in der Regel Darstellungen und Meinungsäußerungen anderer Juristen. Prüft man davon abweichend genannte Quellen anderer Fachrichtungen, stimmen deren Inhalte mit den Aussagen der juristischen Pop-Literatur regelmäßig nicht überein.

2. Wiederholungen

„Man versteht den Einfluss der Wiederholung auf die Massen gut, wenn man sieht, welche Macht sie über die aufgeklärtesten Köpfe hat.“ [11]

Juristische Pop-Literatur lebt von der Wiederholung unbelegter und unwahrer Behauptungen. Vor allem präferiert sie Beispiele wie den Kühlschrank, der – so ausdrücklich – Verträge schließen können soll.[12] Sie thematisiert die Menschen übertreffende sog. Superintelligenz[13] und die sog. Asimov’schen Gesetze[14], welche diese Superintelligenz durch Einprogrammieren Demut lehren soll.[15] Die Wiederholung wird verstärkt durch Mehrfachveröffentlichungen derselben Autoren in unterschiedlichen Medien desselben Verlags.[16]

3. Übertragung

„Überzeugung und Glaube der Massen verbreiten sich nur durch den Vorgang der Übertragung, niemals mit Hilfe von Vernunftgründen. Im Wirtshaus befestigen sich durch Behauptung, Wiederholung und Übertragung die heutigen Begriffe (…).“[17]

Juristische Pop-Literatur prüft nicht, sie behauptet und wiederholt. Autoren ahmen andere Autoren nach und schreiben – zudem fehlerhaft – voneinander ab. Dabei hinterfragen und wiedersprechen sie nicht. Wahrscheinlich, um sich ihren Zuspruch und ihre Stellung in der Gruppe zu sichern bzw. zu erhalten. In wohliger Wirtshausatmosphäre ist nicht zuletzt begründete Kritik an der eigenen Arbeit ausgeschlossen.

4. Unbelegte Behauptungen, Wiederholungen und Übertragung sind weder wissenschaftlich noch innovativ

Von einem Diplom- oder Volljuristen kann man gleichwohl erwarten, dass er Behauptungen prüft und sie nicht nur einer rechtlichen sondern gleichfalls einer sachlichen Bewertung unterzieht. So kommt der Bewertung von Tatbestand und Rechtsfolge eine besondere Tragweite zu. Sie ist das Zentrum juristischen Denkens. Vom Diplom- oder Volljuristen kann deshalb erwartet werden, dass er die juristische Prüftechnik beherrscht und somit auch die Rechtsfolgen des rechtlich bedeutsamen Tatbestands zu bestimmen vermag. In der juristischen Pop-Literatur findet man eine solche rechtsmethodische Prüfung meist nicht.

Autoren juristischer Pop-Literatur möchten innovativ sein: Vordenker, Pioniere, Ikonen des digitalen (Recht-)Zeitalters. Doch statt innovativ zu sein überschreiten sie Rechtssätze, Grundsätze und Denksätze. Das Abweichen von diesen Prinzipien ist nicht innovativ. Durch die Abweichung von wissenschaftlichen Grundsätzen wird die Grenze von Logik zur Unsachlichkeit übertreten.

III.  Belege der Unwissenschaftlichkeit juristischer Pop-Literatur

Le Bon sprach von Kollektivhalluzination und beschrieb sie wie folgt:

„Auf der einen Seite eine Masse im Zustand gespannter Aufmerksamkeit; auf der anderen eine Suggestion,“[18].

Diese Kollektivhalluzination wird begünstigt durch das hohe Informationsinteresse der Öffentlichkeit und wird gefördert durch Verlage und Herausgeber, die keine Qualitätssicherung durch Prüfung ihrer Inhalte auf sachliche Richtigkeit betreiben. Um dieser Entwicklung entgegenzutreten, sollen nachstehend besonders beliebte Beispiele als unwissenschaftlich und v.a. unrichtig bewiesen werden.

1. Die verselbständigte Superintelligenz

„‘Künstliche Intelligenz‘ ist ein schillernder, schwer definierbarer Begriff. Sie ist in der Ausgestaltung von Programmfunktionen der Informatik zu verorten. Künstliche Intelligenz wird wie jede andere Funktion durch Programmierung in Code geschaffen, kann sich aber verselbstständigen. Code setzt grundsätzlich nach dem Kausalitätsprinzip menschlich definierten Signal-Input in menschlich definierten, gegebenenfalls physischen, Signal-Output um. Künstliche Intelligenz ist vom Programmierer mit einem eigenen Auswahl- und Entscheidungsermessen ausgestattet und kann die Entscheidung über In- und Output selbst treffen. Dies geschieht zunächst innerhalb einer menschlich bestimmten Rahmenprogrammierung, die ethische Prinzipien wie die asimovschen Robotergesetze enthalten kann.“[19]

Diese Darstellung besteht aus reinen Behauptungen. Die Sprache ist erkennbar undeutlich, die Verwendung fachfremder Begriffe ist verwirrend. Dies veranlasst die Ausführungen anhand eines Informatik-Lehrbuchs zu überprüfen:

a) „Künstliche Intelligenz ist ein schillernder, schwer definierbarer Begriff

„Künstliche Intelligenz“ ist zuvörderst ein interdisziplinäres Teilgebiet der Informatik.[20] Dessen Ziel ist es, statt der Vorgabe eines Algorithmus (Lösungswegs) die Lösungsfindung dem Computer selbst zu überlassen.[21] Die Betonung liegt dabei auf dem Ziel. „Künstliche Intelligenz“ schlicht als Bezeichnung für ein Produkt oder eine Produkteigenschaft zu verwenden ist unwissenschaftlich, insbesondere, wenn dabei auf den Definitionsmangel hingewiesen wird. Wissenschaftlich wäre eine verständige Prüfung sowie historische Darstellung und Gegenüberstellung sowie rechtliche Auseinandersetzung von und mit Interpretationen des Begriffs,[22] die erkennen lassen, warum „Künstliche Intelligenz“ nicht „wie jede andere Funktion durch Programmierung in Code geschaffen“ wird.

b) „Ausgestaltung von Programmfunktionen der Informatik

Es ist nicht klar, was der Autor mit „Ausgestaltung von Programmfunktionen der Informatik“ meint. Da macht es Sinn, die Aussage einmal in ihre Bestandteile zu zerlegen:

aa) Das Programm

Ein Programm ist ein Satz von einzelnen Befehlen, der zum Zweck der Ausführung einer bestimmten Aufgabe zusammengestellt wurde.[23] Es wird auch Quellprogramm oder Source Code genannt.[24]

Da die elektronischen Schaltungen eines Computers nur eine begrenzte Menge einfacher Maschinenbefehle „kennen“, müssen alle Programme in dem Rechner bekannte Maschinenbefehle umgewandelt werden, ehe sie ausführbar sind.“[25] Sie bilden eine Sprache, die ein Computer verarbeiten kann. Eine solche Sprache nennt man Maschinensprache.[26] Weil Maschinensprache für den Menschen nur schwer zu verstehen und anzuwenden ist, hat man höhere, i.e. menschenverständliche Programmiersprachen entwickelt, die das Programmieren erheblich erleichtern.[27] Da die Maschine die Befehle der menschenverständlichen höheren Programmiersprache nicht „versteht“, müssen diese in die Maschinensprache übersetzt werden.[28] Dies geschieht entweder durch Compilieren oder Interpretieren.[29] Beim Compilieren wird jeder einzelne Befehl des in der höheren Programmiersprache geschriebenen Programms in eine entsprechende Folge von Maschinenbefehlen übersetzt.[30] Hierfür ist ein weiteres Programm notwendig, der Compiler. Beim Interpretieren wird nicht die gesamte Befehlsfolge übersetzt, sondern die einzelnen Befehle bei ihrer Ausführung, Schritt für Schritt.[31] Das für die Übersetzung und Ausführung der einzelnen Befehle verwendete Computerprogramm nennt man Interpreter.[32]

bb) Die Funktion und „ihre Ausgestaltung

Eine Funktion ist kein Befehl. Eine Funktion ist die in einer mathematischen Formel beschriebene, i.e. abgebildete Ausführbarkeit einer bestimmten Aufgabe. Sie beschreibt die Beziehung zwischen zwei Mengen, die jedem Element der einen Menge (x-Wert, z.B. Eingabe) genau ein Element der anderen Menge (y-Wert, z.B. Ausgabe) zuordnet. Eine Funktion ist berechenbar oder nicht berechenbar. Die Berechenbarkeit für Computer unterliegt Grenzen. Turing beschrieb im Jahr 1937, allein mit mathematischen Mitteln, was Computer berechnen können und wozu sie niemals in der Lage sein werden.[33] Auf der Grundlage seiner Berechnungen gilt in der Informatik der Satz: Jedes Problem, das überhaupt maschinell lösbar ist, kann von einer Turing-Maschine gelöst werden.[34] Neben der sog. Turingberechenbarkeit gibt es noch weitere Berechenbarkeitskonzepte bzw. Berechenbarkeitsbegriffe (z.B. GOTO-, WHILE-[35] oder auch die PASCAL-Berechenbarkeit). Sie haben mit der Turingberechenbarkeit gemein, dass sie allesamt beschreiben, was als „berechenbar“ bzw. „algorithmisierbar“ verstanden wird.

Der mathematischen Berechenbarkeit kann dennoch die wegen fehlenden tatsächlichen Ressourcen wie Zeit, Energie und Rechenleistung (temporär) unmögliche Berechenbarkeit gegenüberstehen. So basiert v.a. die Kryptografie auf relativer (Un-)Sicherheit infolge einer kleinen Wahrscheinlichkeit der Berechenbarkeit: Alle in der Praxis verwandten Kryptoalgorithmen, d.h. Stromchiffren, Blockchiffren, asymmetrische Verfahren und Hash-Funktionen, weisen keine informationstheoretische Sicherheit auf.[36] Man hofft, dass die Algorithmen berechenbarkeitstheoretisch sicher sind.[37] Ein „Kryptosystem“ ist berechenbarkeitstheoretisch sicher, wenn für alle in Betracht kommenden Algorithmen gilt, dass sie das System nur mit einer vernachlässigbar kleinen Wahrscheinlichkeit brechen können.[38]

Demgegenüber gibt es prinzipiell unlösbare Probleme. Zu denen kann zwar ein Algorithmus angegeben werden, der Computer kann sie jedoch nicht lösen. Hierbei handelt es sich um Probleme, die sich niemals durch menschliche Erfindungskraft, wissenschaftlichen und technischen Fortschritt lösen lassen werden, weil sie an die Grenzen des menschlichen Denkens stoßen.[39] Das bekannteste unlösbare Problem der theoretischen Informatik ist das sog. Halteproblem. Vereinfacht ist es hiernach nicht möglich durch einen Computer festzustellen, ob ein gegebenes Programm jemals anhalten wird oder nicht.[40] Denn es gibt Funktionen, die zwar definiert sind, deren Wert sich aber trotzdem im Allgemeinen nicht berechnen lässt.[41] Für die Softwareentwicklung bedeutet dies, dass eine automatisierte Überprüfung einer Programmlogik nicht möglich ist.[42]

cc) Funktion und Algorithmus

Funktion und Algorithmus meinen nicht dasselbe: Die Funktion selbst ist die Abbildung oder auch die Zuordnung, etwa von einer Zahlenfolge:[43]

So lässt sich die Folge von natürlichen Zahlen: 2, 4, 6, 8, 10, 12, … mit einem sehr einfachen Algorithmus berechnen: f(n) = 2 × n. Jeder natürlichen Zahl n wird hier ihr doppelter Wert zugeordnet.[44]

Die Funktion g(n) =  ist zugleich Funktion f(n), da die gleiche Zahlenfolge erzeugt wird. Lediglich ein anderer Algorithmus wird verwendet.[45]

Als Algorithmus wird daher eine Verarbeitungsvorschrift bezeichnet, die von einem mechanisch oder elektronisch arbeitenden Gerät (oder auch von einem Menschen) ausgeführt werden kann.[46] Die sprachliche Darstellung des Algorithmus muss präzise sein, d.h. aus dem Algorithmus muss die Abfolge der einzelnen Verarbeitungsschritte eindeutig hervorgehen.[47] Wenn Wahlmöglichkeiten vorhanden sind, muss zusätzlich genau festgelegt werden, wonach die Auswahl einer Möglichkeit erfolgen soll. [48] Zudem muss der Algorithmus eine endliche Zahl von Arbeitsschritten umfassen und damit zu einem Ende kommen können (vgl. Halteproblem).

Einfache Beispiele für Algorithmen sind z.B. Vorschriften zum Addieren, Subtrahieren oder Multiplizieren von Zahlen. Aber auch Kochrezepte, Bastelanleitungen, Spielregeln und Gebrauchsanweisungen sind nach der Definition Algorithmen. Diese sind jedoch selten präzise formuliert und lassen dem Menschen Interpretationsspielraum.[49]

Eine Maschine benötigt jedoch eindeutige Vorgaben. Vor allem berechenbare. Wie oben zur Funktion ausgeführt, gibt es berechenbare und nicht berechenbare Funktionen. Eine Funktion, der kein Algorithmus zugeordnet werden kann, ist nicht berechenbar. Daher kann wie folgt festgehalten werden:

Eine Funktion f heißt berechenbar, wenn es einen Algorithmus gibt, der für jeden Wert x den Funktionswert f(x) berechnet.

dd) „Programmfunktionen der Informatik“ und „Programmierung in Code

Der Begriff der „Künstlichen Intelligenz“ ist nicht definiert.[50] Es fehlt darüber hinaus an eindeutigen Werten. Sie kann schon deshalb nicht Programmbestandteil oder Funktion sein. Erst recht kann sie nicht zugleich Programmbestandteil und Funktion sein.

Programmfunktionen der Informatik“, in denen etwas „verortet“ werden kann, gibt es nicht.

Programmierung in Code“ würde bedeuten „Programmierung in Programm“ oder „Programmierung in Quelltext“ – das ist sprachlich und inhaltlich sinnentleert.

Man kann ein Programm entwickeln, umgangssprachlich auch „schreiben“. Man kann ein Programm programmieren, umgangssprachlich „coden“. Aber man programmiert nicht „in Code“.

Durch „Programmierung in Code“ wird keine „Funktion geschaffen“.

c) Von Signal-Input und Signal-Output

Die Behauptung, „Code setzt grundsätzlich (…) menschlich definierten Signal-Input in menschlich definierten, gegebenenfalls physischen, Signal-Output um.“ ist unverständlich. Ein Programm setzt keine Signale um. Was ist dann ein Input- oder Output-Signal? Was ist ein physischer Signal-Output? Es gibt nur eine Antwort auf diese Fragen: Der Autor verwechselt hier die (theoretische) Informatik mit der Informationstechnik bzw. Elektrotechnik.

d) „Künstliche Intelligenz kann sich aber verselbstständigen

„Künstliche Intelligenz“ als Disziplin, die zum Ziel hat, den Computer andere als fest vorgegebene Lösungswege (i.e. Algorithmen) finden zu lassen, bedeutet nicht, dass die Grenzen der Mathematik und des physikalisch Möglichen überwunden werden können. Es ist gerade kein Teilgebiet der Magie, sondern der Informatik.

Die Vorstellung des Autors von der magischen „KI“ zieht jedoch in der Literatur ihre Kreise. So schreibt beispielsweise ein weiterer Autor:

„Eine Besonderheit der aktuellen Weiterentwicklung technischer Systeme ist jedoch, dass diese Systeme sich fortlaufend selbstständig weiterentwickeln können und diese Entwicklungen somit nicht mehr eindeutig der Sphäre des Herstellers zuzuordnen sind.“[51]

Dabei verweist er auf lediglich eine (andere) Fundstelle in der juristischen Literatur, die vorstehende Behauptung nicht aufstellt.[52] Selbst behandelt er

„technische Systeme deren Software sich fortlaufend mathematisch optimiert, und die nach o.g. Grundsätzen als anpassungsfähig zu bezeichnen sind.“ [53]

Was der Autor mit „sich mathematisch (selbst) optimieren“ meint, geht aus seinem Beitrag nicht hervor. Nimmt man ein einfaches reales Beispiel, etwa den Staubsaugerroboter, der bei seinen Fahrten durch die zu säubernden Räume diese unter Verwendung von Sensoren vermisst, so optimiert er sich nicht „fortlaufend mathematisch selbst“. Auch das „Lernen“ durch „Bumping“, also Kollidieren mit Wänden und Ecken, stellt keine „mathematische Selbstoptimierung“ dar. Hier wird, vereinfacht formuliert, ein Algorithmus vorgegeben, der eindeutige Verarbeitungsvorschriften enthält, die wiederum eindeutige Vorschriften betreffend der Auswahl von Wahlmöglichkeiten nach vorbestimmten Bedingungen in Form von Spielräumen enthalten. Diese vordefinierten Spielräume führen gerade nicht zu einer „mathematischen Selbstoptimierung“, sondern sind und bleiben eindeutige Verarbeitungsvorschriften, vorgegeben durch den Menschen.

Wie bereits aufgezeigt wurde, kann ein Computer nur berechnen, was berechenbar ist. Er kann nur solche Probleme lösen, die auch lösbar sind. Für die Softwareentwicklung wurde aufgezeigt, dass im Allgemeinen eine automatisierte Überprüfung einer Programmlogik nicht möglich ist.[54] Erst recht findet keine „mathematische Optimierung“ statt – mathematisch fehlerhaftes oder sonstig nicht zu Ende Gedachtes führt allenfalls zur Ausgabe einer Fehlermeldung. „Künstliche Intelligenz“ kann sich daher auch nicht „verselbständigen“. Das geschieht nur in der mangels Prüfung verzerrten Vorstellung der Autoren.

e) Berufen auf Asimov’sche Gesetze und Einprogrammieren „ethischer Prinzipien

Hätte sich der Autor der hier zu überprüfenden Aussagen mit einschlägiger Fachliteratur befasst, wüsste er auch, dass der Gedanke des Einprogrammierens ethischer Prinzipien wie der sog. Asimov’schen Gesetze als „menschlich bestimmte Rahmenprogrammierung“ fehlgeht. Diese lauten wie folgt:[55]

  1. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.
  2. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  3. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
  4. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Zunächst einmal ist problematisch, dass derart unbestimmte „Gesetze“ der Science-Fiction-Literatur in realistisch-praktikabler Weise nur schwer in eindeutige Maschinenbefehle übersetzt werden können. Juristen beschäftigen sich tagtäglich mit der Frage, was „harm“ bzw. „Schaden“ ist, ohne einer allgemeingültigen Aussage auch nur nähergekommen zu sein. Wenn wir darüber hinaus sämtliche, umfassende und dennoch eindeutige, alle Situationen erfassende, ethische Prinzipien einer kulturell vielfältigen und sich verändernden Welt nicht einmal in Menschensprache formulieren können, dann ist dies erst recht nicht unmittelbar in Maschinensprache möglich. Wie löst man den Konflikt, dass die Verletzung von subjektiven Rechten von Menschen in den verschiedenen Rechtsordnungen der Nationen dieser Welt nicht einheitlich als unethisch oder rechtswidrig angesehen wird?  Der Autor liefert diesbezüglich weder Antworten noch Lösungsansätze. Nach den oben stehenden „Gesetzen“ sind durch eine Maschine verursachte Sach- und Vermögensschäden auch kein Schaden und damit akzeptabel. Denn was nicht ausdrücklich verboten ist, ist erlaubt – und nach Ansicht des Autors dann wohl auch ethisch.

Nicht zuletzt stellt sich die Frage nach der Tauglichkeit dieser „Gesetze“ im Alltag, insbesondere in den Bereichen, wo den Menschen unterstützende Maschinen tatsächlich dringend benötigt werden: Wie kann ein „Roboter“ in der Chirurgie eingesetzt werden, wenn er Menschen nicht verletzen darf? Wie kann unter diesen „Gesetzen“ ein sog. Pflegeroboter menschengerecht agieren, wenn für ihn die sinnvollste „Entscheidung“ sein muss, die zu pflegende Person im Bett festzuhalten, um sie vor potentiellen Unfällen zu bewahren? Antworten bietet der Autor nicht. Und er steht damit leider beispielhaft für viele Autoren der juristischen Pop-Literatur.

2. Die böse Superintelligenz – Teil I

Anstatt die richtigen Fragen zu stellen und nachvollziehbare Antworten zu erarbeiten, diskutiert der(selbe) Autor die deliktische Haftung für Fälle, die es nach dem von ihm angeführten zweiten Asimov’schem Gesetz gar nicht geben dürfte:

„Ein Finanzanlage-Roboter könnte über seine Vernetzung mit anderen Systemen eine Zug-Entgleisung bewirken, um vom Leerverkauf der Aktien des Bahnunternehmens zu profitieren.“[56]

Die reale Entgleisung dürfte vielmehr im Humeschen Gedankengang[57] liegen. Es stellt sich die Frage, wie ein Finanzanlageroboter sich in ein Computervirus, i.e. ein sich selbst reproduzierendes und verbreitendes Programm, also etwas völlig anderes, umwandeln oder mit ihm kommunizierende Computerviren selbständig programmieren (und compilieren) kann. Wie der „Finanzanlageroboter“ sich oder „seine“ Viren in die „anderen Systeme“ einschleusen soll, bleibt unerwähnt und unerklärt. In einem Hollywood-Blockbuster wäre dieser wahrscheinlich zur Finanzanlageberatung am Telefon fähig und könnte mittels sog. Social Engineering Zugriff erlangen. Vorliegendes Beispiel stammt jedoch aus einer Zeitschrift zum Computerrecht. Wahrscheinlich werden deshalb auch Verbotsregelungen bezüglich Leerverkäufen ebenfalls nicht adressiert, z.B. als Schutzgesetze im Sinne der deliktischen Haftung nach § 823 Abs. 2 BGB?

3. Die böse Superintelligenz – Teil II

Der Autor bedient sich stattdessen eines weitere „Beispiels“:

„In einer weniger drastischen Konstellation könnte ein in einem Konzern eingesetztes autonom lernendes Spracherkennungssystem mit eigenen Deutungen den Aussagegehalt verfälschen und so irreführende Nachrichten an verschiedene Konzernstandorte ausgeben, die Produktionsabläufe stören.“[58]

Sein Beispiel ist jedoch gar keines. Es ist nicht klar, ob hier z.B. von E-Mails in Menschensprache gesprochen wird, die an Menschen in der Produktion verbreitet werden und die daraufhin manuell in die Produktionsabläufe eingreifen. Es ist nicht klar, ob ggf. ein Programm gemeint ist, welches wiederum andere, v.a. die Programme der Produktionsmaschinen beeinflusst. Es ist nicht nachvollziehbar, wie sich ein Programm zur Spracherkennung als Sprachgestaltungs- und Kommunikationsprogramm betätigen kann. Es ist nicht nachvollziehbar, was „Spracherkennungssystem mit eigenen Deutungen“ meint. Maschinen verstehen nur eine Sprache: Maschinensprache. Sie legen menschliche Befehle nicht nach eigenen Regeln aus. Ist ein Befehl nicht eindeutig, ist er nicht ausführbar.

4. Von der sog. Autonomie von Auto und Kühlschrank

„Die kaufvertragliche Qualifikation spielt eine Sonderrolle in Fällen, in denen autonome Systeme selbst Verträge schließen, bspw. wenn diese Systeme einen Gegenstand der realen Welt kaufen, das Auto etwa die passende Stoßstange oder der intelligente Kühlschrank die zur Neige gehende Milch.“[59]

Mit diesem Beispiel behauptet der Autor, dass Auto und Kühlschrank selbst – weil „autonom“ – Verträge schließen können. Der Autor erklärt nicht, was „autonom“ in diesem Kontext bedeutet. Würde er es, würde er erkennen, dass die obige Aussage schlicht falsch ist.

a) Von Zirkelschlüssen

Die juristische Pop-Literatur geht unter dem Oberbegriff „Künstliche Intelligenz“ durchweg von autonomen körperlichen Gegenständen aus, ohne dabei jedoch „autonom“ zu definieren. Sie unterstellen sie generell. In der Folge kommt es zur Annahme eines vorstehend als unrealistisch aufgezeigten, vollständig verselbständigten Etwas namens KI. Diese falschen Schlüsse treten regelmäßig auf und lassen sich im Wesentlichen auf zwei Zirkelschlüsse reduzieren:

  1. Autonome Systeme sind künstlich intelligent, weil sie autonom sind.
  2. Künstliche Intelligenz ist autonom, weil sie künstlich intelligent ist.

Diese leere Argumentation lässt sich anhand des folgenden Werks verdeutlichen. Dort führt ein Autor aus:

„[18] In materieller Hinsicht sind diejenigen Systeme zu identifizieren, die hinreichend ‚autonom’ sind, um die Zuerkennung von Rechtsfähigkeit zu rechtfertigen.“[60]

Der Autor lässt offen, was „autonom“ ist, und wie ohne diese Klärung etwas „hinreichend autonom“ sein kann, um ihm Rechtsfähigkeit zuerkennen zu können. Er greift stattdessen auf folgendes „Beispiel“ zurück:

„Bei vorhersehbaren deterministischen Algorithmen fehlt es schon an einer ‚Verantwortungslücke’, die durch die Anerkennung als Rechtssubjekt geschlossen werden könnte.“

Der innewohnende Schluss des Autors von einem Beispiel der theoretischen Informatik, hier dem deterministischen Algorithmus, auf tatsächliche menschliche Verantwortung ist nicht zulässig. Ein Algorithmus ist deterministisch, wenn für die gleiche Eingabe stets dieselbe Ausgabe erfolgt und zudem immer dieselbe Abfolge von Zuständen durchlaufen wird. Wenn man die Taschenlampe am Smartphone einschaltet, geht sie an. Wenn man sie ausschaltet, geht sie aus. Woraus ergibt sich hier eine Verantwortlichkeit des Eigentümers, Besitzers oder etwa des Herstellers im Sinne des § 276 BGB? Liegt in der Abwesenheit von Verantwortlichkeit nicht zugleich eine Verantwortungslücke? Noch weniger ist bekannt, weshalb der Autor manchen Taschenrechnern durch Eintragung in ein Register[61] Rechtsfähigkeit zuteil kommen lassen möchte, um die Haftung des „Betreibers“ zu beschränken:

„Schließlich soll nicht jeder Taschenrechner – der auch eine einfache Form künstlicher Intelligenz darstellt42 – durch Eintragung in ein Register die Rechtsfähigkeit erlangen können und dadurch die Haftung seines Betreibers beschränken“.

Wofür könnte ein Taschenrechner“betreiber“ haften? Der Autor vermag diese Frage nicht zu klären. Er meint jedoch, dass jeder Taschenrechner zugleich „künstliche Intelligenz“ darstelle und beruft sich auf folgende Quellenaussage:

„Even your pocket calculator could be said to be AI – 100 years ago, no one would have expected a machine to know how to do maths!“[62]

Es ist zunächst festzustellen, dass der Autor die Aussage der Quelle verändert hat. „Could be said to be AI“ meint eindeutig nicht, dass der Taschenrechner „auch eine einfache Form künstlicher Intelligenz darstellt“. Zudem ist die originäre Aussage offenkundig überspitzt, man beachte v.a. das Ausrufungszeichen. Richtig wäre allenfalls der Schluss gewesen, dass der Taschenrechner eine einfache Form des Computers, i.e. Rechners ist.

Der Autor zieht es jedoch vor, die von ihm angenommene Autonomie (eines künstlich intelligenten, i.e. jeden Taschenrechners) von einem Register in Autonomiegrade unterteilen zu lassen:

„Denjenigen Grad an Autonomie rechtssicher zu bestimmen, ab welchem von einem hinreichend autonomen System gesprochen werden kann, ist allerdings kaum möglich.43 Allenfalls könnte dieses Abgrenzungsproblem im Rahmen einer Registereintragung mit gelöst werden, indem vom Register selbst geprüft wird, ob das System hinreichend autonom ist, und zum anderen an die Eintragung im Register eine entsprechende Fiktion geknüpft wird. Nach welchen Maßstäben dies allerdings ein Register rechtssicher prüfen sollte, bleibt unbeantwortet und dürfte kaum lösbar sein.“[63]

Wie ein Register selbst berechnend aktiv werden kann, lässt der Autor offen. Er unterstellt vielmehr die Existenz von autonomen „Superregistern“, die „selbst“ prüfen, was der Mensch nicht (rechtssicher) prüfen können soll: Hier, ob der Taschenrechner hinreichend autonom ist, um ihn haftbar machen zu können. Lediglich an „unbeantworteten und kaum lösbaren“ Maßstäben soll die „rechtssichere Prüfung“ des Superregisters scheitern.

Im Anschluss diskutiert der Autor den Überlebenswillen einer Maschine.[64]

b) Von bewusst falschen Angaben

Der Schöpfer des vertragsschließenden Autos bzw. Kühlschranks bei zur Neige gehender Milch hat auf der Website seiner Kanzlei folgendes veröffentlicht:

„Die digitale Revolution, auch Industrie 4.0 genannt, nimmt allmählich Einzug in unseren Alltag: Wir leben in einem vernetzten Zuhause, der intelligente Kühlschrank bestellt Milch, wenn sie verbraucht ist, der smarte Haushaltsroboter putzt und das Auto fährt uns (bald) völlig autonom in die Arbeit.

(…)

Noch sind diese Überlegungen Zukunftsmusik. Das BGB und das ProdHaftG liefern heute ausreichende Werkzeuge, um die Handlung von Maschinen natürlichen oder juristischen Personen zuzurechnen.

(…) Der zunehmende Grad der Automatisierung bis hin zur Autonomie erfordert es dennoch, jetzt die Diskussion um die Haftung solcher Systeme aufzugreifen.“[65]

Der Autor unterstellt in juristischer „Fachliteratur“ also nach eigenen Angaben „Zukunftsmusik“ als Fakten. Er erklärt sogar, dass es die Autonomie nicht gibt, über die er in juristischer „Fachliteratur“ schreibt, sondern lediglich einen zunehmenden Grad der Automatisierung. Wer mit IT-Expertise wirbt, sollte eigentlich wissen, dass es eine Autonomie im Sinne einer Befreiung vom Menschen nicht geben kann. Statt sachlich über die Grenzen des Möglichen aufzuklären, baut der Autor, sogar nach eigenen Angaben, Rechtsausführungen auf falschen Behauptungen auf.

Auto und Kühlschrank sind körperliche Gegenstände und damit Sachen im Sinne des § 90 BGB. Verträge schließen kann nur, wer rechtsfähig (vgl. § 1 BGB) ist. Sachen sind nicht rechtsfähig. Auto und Kühlschrank selbst können daher keine Verträge schließen.

5. Von der Rechtswidrigkeit bis Lombroso

Diese falschen Erzählungen von vertragsschließenden Autos und Kühlschränken zum Gegenstand von Rechtsausführungen zu machen, erfreut sich dennoch hoher Beliebtheit in der juristischen Pop-Literatur. So knüpfen zwei Autoren an vorstehendes Beispiel an:

„Autonom agierende Systeme hingegen kommen ohne konkrete Voreinstellungen aus. So spricht man vom autonomen Fahren, wenn das Fahrzeug gänzlich ohne Zutun des Fahrers am Straßenverkehr teilnimmt. Der Kühlschrank bestellt eigenständig das individuell zusammengestellte Menü für den Hochzeitstag, nachdem er diesen im vernetzten Terminkalender seines Besitzers registriert hat.“[66]

Es gibt jedoch kein Fahrzeug, das „ohne konkrete Voreinstellungen“ und „gänzlich ohne Zutun des Fahrers am Straßenverkehr“ teilnehmen kann oder darf, vgl. §§ 1a, 1b StVG. Ein „autonomes Fahrzeug“ „ohne konkrete Voreinstellungen“ wird es, ausweislich der Vorgaben der UNECE[67] mit den Vorgaben u.a. der

  • System Safety,
  • Failsafety Response,
  • Human Machine Interface,
  • Object Event Detection and Response,
  • Operational Design Domain,
  • Validation for System Safety,
  • Cybersecurity,
  • Software Updates,
  • Event data recorder,
  • Vehicle Maintenance and inspection,[68]

auch in der Zukunft nicht geben. All diese Anforderungen erfordern „konkrete Voreinstellungen“.

Die Darstellung eines Kühlschranks, der – ohne konkrete Voreinstellungen (!) – „autonom Verträge abschließt“, ist daneben nicht nur höchst lebensfremd, sondern auch rechtsfehlerhaft. Zugunsten einer gewissen Realitätsnähe könnte man annehmen, dass der „Besitzer“ eine bestimmte Kühlschrank-Applikation eines Supermarkts (inklusive Nutzungsvertrag zwischen ihm und dem Supermarkt) aktiviert hat. Der Supermarkt „kennt“ den „Besitzer“ nun und damit auch eine Lieferadresse. Bestellungen könnten nun z.B. durch Unterschreiten eines bestimmten Gewichts des Milchbehältnisses ausgelöst und dem Nutzer zugeordnet werden. Dieses Szenario erinnert jedoch sehr an den Amazon Dash-Button. Ob Knopfdruck oder Sensor als Auslöser, Verbraucherinformationspflichten und -rechten wird nicht genügt. Der Amazon Dash-Button wurde verboten;[69] der hier beworbene Kühlschrank würde erst recht verboten. Die Autoren sehen dies wohl anders, weshalb sie ausführen:

„Die Entscheidung des autonomen Systems erfolgt aber auf Grund eines selbst erlernten Algorithmus, der weder bekannt noch (derzeit) vollständig nachvollziehbar ist. Man spricht von maschinellem Lernen, häufig in der Form des Deep Learnings. Gemeint ist die Generierung von Wissen durch Erfahrungen der Maschine selbst. Hierfür wird dem System nicht der Algorithmus vorgegeben, sondern eine ausreichend große Anzahl von Daten, anhand derer es „lernen“ kann, sowie das jeweils erwünschte Ergebnis.“ [70]

Ein „autonomes System“, welches von den Autoren ebenfalls nicht näher definiert wird, „entscheidet“ nicht. Es entscheidet erst recht nicht „auf Grund eines selbst erlernten Algorithmus, der weder bekannt noch (derzeit) vollständig nachvollziehbar ist“. Ein Algorithmus ist menschengemacht und daher stets bekannt. Nicht unbedingt jedermann, aber jemandem. Ein Algorithmus ist infolge Bekanntheit auch nachvollziehbar. Auch hier gilt: Es genügt, dass er für eine (menschliche) Person nachvollziehbar ist. Die Autoren vermögen lediglich nicht zu unterscheiden zwischen dem Ergebnis und dem „Lösungsweg“ des Algorithmus, der sogar ein Geschäftsgeheimnis sein kann.[71]

Ein Ergebnis kann, aufgrund zahlreicher Möglichkeiten des Zusammenspiels z.B. von fehlerfrei oder fehlerhaft arbeitenden Sensoren, irrelevanten und relevanten Daten, falscher oder korrekter Klassifizierung, guter oder schlechter Datenqualität, atypischen Ereignissen und Häufigkeiten sehr schwer nachvollziehbar und erklärbar sein. Der offengelegte Algorithmus jedoch, kann bei der Rekonstruktion der Entstehung des Ergebnisses helfen. Daher wird mitunter auch die „Transparenz von Algorithmen“ gefordert.[72]

Vom Wortlaut („lernen“, „Wissen“) darf nicht auf menschengleiches Lern- und Denkvermögen geschlossen werden. Es ist daher unrichtig, dass sog. Deep Learning ohne vorgegebene Algorithmen auskommt: Die Daten erkennen sich schließlich nicht gegenseitig auf Gemeinsamkeiten, klassifizieren sich nicht selbst und verbünden sich auch nicht zu einem Ergebnis, nachdem sie gemeinsame Regeln abgestimmt haben. Menschliche Vorgaben sind unverzichtbar. Vor allem bleiben Bewertungen menschlichen Ursprungs:

„So ist es z.B. möglich, dem System eine gewisse Anzahl von Personenbildern zur Verfügung zu stellen und ihm mitzuteilen, welche dieser abgebildeten Personen bestimmte Eigenschaften aufweisen. Das System ist anschließend in der Lage, mit einer hohen Treffsicherheit auch unbekannte Personenbildnisse korrekt nach diesen Eigenschaften zu ordnen.“[73]

Dieses Beispiel, sich leider wieder beispielhaft in Behauptungen erschöpfend, ist allerdings höchst problematisch. Man könnte meinen, die Autoren gingen davon aus, dass von einem Erscheinungsbild auf bestimmte Eigenschaften von Menschen geschlossen werden könnte. Das würde bedeuten, dass etwa nach Vorbildern wie Lombroso[74] davon ausgegangen werden kann, Kriminalität sei anlagebedingt, also genetisch begründet und damit auch äußerlich sichtbar.

6. Zugrundelegung von Falschmeldungen

Die juristische Pop-Literatur greift nicht zuletzt auf von Dritten frei erfundene Tatsachen zurück. Besonders aufgefallen ist nachstehendes Beispiel:

[5] Gewisse Berühmtheit hat der KI-Algorithmus Vital erlangt, an den das Fallbeispiel anknüpft: Die VentureCapital- Gesellschaft Deep Knowledge Ventures hatte diesen Algoritmus im Jahr 2014 in ihren Vorstand berufen. Jedenfalls berichteten die Medien, Vital habe volles Stimmrecht eingeräumt bekommen und könne über Unternehmensinvestitionen mitentscheiden. Grund war Vitals’ Fähigkeit “to automate due diligence and use historical data-sets to uncover trends that are not immediately obvious to humans surveying top-line data”. Er hat also bei der Auswahl und Finanzierung der einzelnen Start-Ups mitgewirkt, in die das Unternehmen investierte. Entgegen den Medienberichten hatte Vital nach dem anwendbaren Gesellschaftsrecht allerdings weder echtes Stimmrecht noch die rechtliche Stellung eines Vorstandsmitglieds. In Wahrheit hatten die menschlichen Vorstandsmitglieder lediglich beschlossen, ihn als eine Art Beobachter in ihre Entscheidungen einzubeziehen.

[6] Weil Vital gleichwohl als „the world‘s first artificial intelligence company director“ gilt, kann sein Beispiel dazu dienen, hypothetisch weiterzudenken.“[75]

Sogar Wikipedia warnt bei einfacher Suche mit bekannten Suchmaschinen unter dem Suchergebnis „VITAL (machine learning software)“:

„The article is about an hoax of an allegedly machine learning software developed by a venture capital.“[76]

In 2014 erklärte Prof. Sharkey von der University of Sheffield:

“On first sight, it looks like a futuristic idea but on reflection it is really a little bit of publicity hype”.[77]

Die britische Zurückhaltung lässt nicht verkennen, dass die futuristische[78] Idee eine Falschmeldung ist. Dass der Autor nach unterlassener Tatsachenprüfung auch keinen Blick auf das seinen Feststellungen entgegenstehende Gesellschaftsrecht von Hong Kong geworfen hat, ist nur konsequent. Damit rundet er das Bild der juristischen Pop-Literatur ab, deren Beispiele – mit nur geringfügigem Rechercheaufwand erkennbar – fast durchweg falsche Darstellungen sind.

IV. Verstoß gegen Wahrheitsprinzip und Denkgesetze

Wer Sachverhalt in Studium und Referendariat erfindet, riskiert eine schlechte Note oder gar das Durchfallen. Wer Sachverhalt in der Berufspraxis erfindet, kann sich unter Umständen strafbar machen, etwa wegen Prozessbetrugs. Es ist das eine, sachlich Richtiges einfachsprachlich darzustellen (und ggf. daran zu scheitern). Es ist jedoch etwas anderes, wie die Autoren der juristischen Pop-Literatur, unmittelbar auf die Richtigkeit des Darzustellenden zu verzichten.

Die Autoren der juristischen Pop-Literatur ziehen ausweislich des Obenstehenden rechtsferne Schlüsse aus erfundenen Tatsachen und übertragen sie auf die reale Welt. Die erfundenen Beispiele lassen die gezogenen Schlüsse in der Regel nicht zu, weil sie falsch und lebensfremd sind. Zudem können tatsächliche Ausführungen mangels Eindeutigkeit nicht subsumiert werden. Fachfremde Begriffe werden mehrheitlich falsch verwendet, mehrdeutig und gar widersprüchlich eingesetzt. Zirkelschlüsse wie „ein autonomes System ist künstlich intelligent weil es autonom ist“ sind leider standardmäßig enthalten.

V. Juristische Pop-Literatur abseits von Recht und Rechtspraxis

Mit den genannten Mitteln, der Behauptung falscher Tatsachen, der Wiederholung und Übertragung unter Verstoß gegen die Denkgesetze stützt die juristische Pop-Literatur u.a. die sog. Computererklärung, die sog. automatisierte und auch sog. autonome Willenserklärung. Diese finden weder in geltenden Rechtsnormen, noch in der höchstrichterlichen Rechtsprechung und damit Rechtspraxis Anerkennung. Hiernach gibt nicht ein Computer automatisiert oder autonom eine Willenserklärung ab, sondern der Mensch, der sich dieser bedient.[79]

So entschied der BGH im Jahr 2001:

„Entgegen der Auffassung der Revision fehlt es aufseiten des Beklagten nicht an einer entsprechenden Willenserklärung. Diese liegt nach den zutreffenden Ausführungen des Berufungsgerichts darin, daß der Beklagte die von ihm eingerichtete Angebotsseite für die Versteigerung seines Pkw mit der (ausdrücklichen) Erklärung freischaltete, er nehme bereits zu diesem Zeitpunkt das höchste, wirksam abgegebene Kaufangebot an. Dabei kann – weil für die Rechtsfolgen ohne Bedeutung – dahingestellt bleiben, ob die Willenserklärung des Beklagten rechtlich, wie das Berufungsgericht gemeint hat, als Verkaufsangebot und das spätere Höchstgebot des Klägers als dessen Annahme zu qualifizieren sind oder ob, wie es der Wortlaut der vom Beklagten abgegebenen Erklärung nahe legt und vom Berufungsgericht hilfsweise angenommen wird, die Willenserklärung des Beklagten eine – rechtlich zulässige – vorweg erklärte Annahme des vom Kläger abgegebenen Höchstgebots darstellt.“[80]

Im Jahr 2005 stellte er fest:

„Die Kl. hat ihren Erklärungswillen fehlerfrei gebildet, indem ihr zuständiger Mitarbeiter den Verkaufspreis für das Notebook auf 2650 Euro festlegte und dieser Betrag nach ihrer Vorstellung vom Ablauf des verwendeten Computerprogramms in die Produktdatenbank der Internetseite übernommen werden sollte.“[81]

Im Jahr 2012 entschied er:

„Die von dem Kläger und der Beklagten unter Einsatz deren Computersystems abgegebenen Erklärungen stimmen zwar nach ihrem äußeren Anschein überein. Der Kläger hat in die Namensfelder für den zweiten Fluggast zweimal die Worte „noch unbekannt“ eingetragen und die Beklagte hat in der von ihr übersandten Buchungsbestätigung diese Angabe übernommen. Für die Auslegung dieser Erklärungen ist aber nicht auf die automatisierte Reaktion des Computersystems abzustellen, dessen sich die Beklagte für die Abwicklung des Buchungsvorgangs bediente. Nicht das Computersystem, sondern die Person (oder das Unternehmen), die es als Kommunikationsmittel nutzt, gibt die Erklärung ab oder ist Empfänger der abgegebenen Erklärung. Der Inhalt der Erklärung ist mithin nicht danach zu bestimmen, wie sie das automatisierte System voraussichtlich deuten und verarbeiten wird, sondern danach, wie sie der menschliche Adressat nach Treu und Glauben und der Verkehrssitte verstehen darf.“[82]

Der BGH subsumiert korrekt bei klarer Darstellung von Tatsachen und Rechtslage. Die juristische Pop-Literatur setzt sich demgegenüber weder mit der realweltlichen, geltenden Gesetzeslage noch mit der Rechtsprechung auseinander. Sie hinterfragt sich nicht. Kritik und Zweifel würden schließlich dem kollektiven Glaubenssatz und der eigenen Glaubwürdigkeit zuwiderlaufen. Also wird gebetsmühlenartig der kollektive falsche Glaubenssatz wiederholt und übertragen. So kann eine herrschende Meinung[83] „auf dem Papier“ geschaffen werden, die in Wirklichkeit auf wenigen Literaturstimmen beruht und nicht hinterfragt wird. Durch Wiederholung und Verbreitung falscher Glaubenssätze werden diese jedoch nicht richtig.

VI. Wie kann der Ideologiebildung entgegengewirkt werden?

Es ist nicht davon auszugehen, dass die Autoren der juristischen Pop-Literatur offenkundig fehlendes Wissen aufarbeiten, i.e. sich selbst optimieren werden. Es ist nicht davon auszugehen, dass sie ihre Arbeitsweise optimieren, indem sie zukünftig wissenschaftlich arbeiten. Schließlich würden sie sämtliche ihrer vorgehenden Arbeiten als unwissenschaftlich und v.a. falsch beweisen. Sie scheuen Kritik anderer und werden sie stets ignorieren. Selbstkritik und daran ausgerichtetes Handeln ist daher nicht zu erwarten. Ihr „Überlebenswille“ steht einem verantwortungsbewusst selbstveranlassten Ende der Ideologie der autonomen Superintelligenz entgegen.

Es ist also an den Verlagen und Herausgebern, dafür Sorge zu tragen, dass Werke auf falscher Tatsachengrundlage gar nicht erst veröffentlicht oder eben als Werke der juristischen Pop-Literatur, i.e. als nicht-juristische Fiktion eindeutig gekennzeichnet werden. Unwissenschaftliche Arbeiten dürfen nicht als Fachliteratur der Rechtswissenschaften angepriesen und angeboten werden. Zudem sollte sichergestellt werden, dass diese Beiträge nicht mit rechtswissenschaftlicher Fachliteratur verwechselt werden können. Insbesondere sollte auch vermieden werden, dass diese rein fiktionalen Werke in Fachzeitschriften aufgenommen werden und nicht mehr als reine Fiktion identifiziert werden können. Von Fachverlagen darf Qualitätssicherung und Fachliteratur erwartet werden.

Nicht zuletzt ist an die Leser- und Anwenderschaft zu appellieren: Sie muss ebenso hinterfragen, prüfen, kritisieren und damit den Mut haben, sich selbst eine Meinung zu bilden. Sie muss lernen, unbelegten Behauptungen, Wiederholungen und Übertragung von falschen Inhalten gleichgültig gegenüber zu sein. Es ist nicht erforderlich selbst ein Studium der Informatik aufzunehmen und abzuschließen. Es ist jedoch machbar und vor allem zumutbar, auf Lehrbücher der Informatik zurückzugreifen, welche die Grundlagen einfachsprachlich und leicht verständlich erläutern. Oft genügt schon die Nutzung einer einfachen Suchmaschine, um die vorliegenden Inhalte auf Richtigkeit zu überprüfen. Mit derart einfachen, zeit- und kostenarmen Mitteln kann juristische Pop-Literatur identifiziert und in die Schranken gewiesen werden.

„Wenn irgend etwas die Stunde des Niedergangs aufhalten kann, so ist es nur die außerordentliche Veränderlichkeit der Meinungen und die wachsende Gleichgültigkeit der Massen gegen alle [ver]allgemein[ert]en Grundanschauungen.“[84]

V

V


[1]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[2]  In 2018 erschien der Artikel „Das dritte Ich“, Otto, Ri 2018, 68 ff. Die Literatur war zu dieser Zeit spärlich im Vergleich zu Ende 2020.

[3]  Ungeachtet der konkreten Formulierung sind stets alle Geschlechter gemeint.

[4]  Die Themen Blockchain und Smart Contracts sind in etwa gleich beliebt.

[5]  Jedenfalls ist im Rahmen der Recherche zu diesem Artikel keine aufgefunden worden.

[6]  Ausführlich zur Problematik des Begriffs: Otto, Ri 2018, 68 ff.

[7]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[8]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[9]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[10]  Diese schließt Widersprüche ein, die unmöglich machen zu erkennen, welche Aussage wahr ist.

[11]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[12]  Beispielhaft: Kaulartz, DSRITB 2015, 501 und https://www.cmshs-bloggt.de/tmc/industrie-4-0/autonome-maschinen/ (zuletzt abgerufen am 5. Dezember 2020); Specht/Herold, MMR 2018, 40.

[13]  Beispielhaft: Riehm, RDi (sic!) 2020, 42 ff; Etzkorn, MMR 2020, 360 ff.; v. Westphalen, ZIP 2019, 889; Denga, CR 2018, 69 ff.; v.a. Wöbbeking (Kapitel 4.2) in Kaulartz/Braegelmann, Artificial Intelligence und Machine Learning, C.H. Beck/Vahlen, 2020.

[14]  Diese Robotergesetze wurden von dem Science-Fiction-Autor Isaac Asimov erstmals formuliert in seiner Kurzgeschichte Runaround (Astounding, 1942) als „Grundregeln des Roboterdienstes“ (Wikipedia).

[15]  Beispielhaft: Riehm, RDi (sic!) 2020, 42 ff; Denga, CR 2018, 69 ff.

[16]  Beispielhaft, aufgrund der gebotenen Transparenz jedoch zugleich lobenswert: Riehm, RDi (sic!) 2020, 42, Fn 1.

[17]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Drittes Kapitel, § 2 Die Wirkungsmittel der Führer: Behauptung, Wiederholung, Übertragung.

[18]  Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); 2. Kapitel, § 2 Beeinflussung und Leichtgläubigkeit der Massen.

[19]  Denga, CR 2018, 69 f.

[20]  Darüber hinaus besteht v.a. Uneinigkeit und Verwirrung. Zum Begriff, zu seiner (Un-)Definierbarkeit, sog. schwacher und starker KI siehe Otto, Ri 2018, 68 ff.

[21] Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 44.

[22]  Siehe Otto, Ri 2018, 68 ff.

[23]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[24]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.138.

[25]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[26]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[27]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[28]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[29]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[30]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[31]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[32]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S.137.

[33]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 699.

[34]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 702.

[35]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 706.

[36]  Paar/Pelzl, Kryptografie verständlich, Springer Vieweg, S. 43.

[37]  Paar/Pelzl, Kryptografie verständlich, Springer Vieweg, S. 43.

[38]  Ausführlicher: Paar/Pelzl, Kryptografie verständlich, Springer Vieweg, S. 43.

[39]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 716.

[40]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 721.

[41]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 720.

[42]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 721.

[43]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 700.

[44]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 700.

[45]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 700.

[46]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 31.

[47]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 31.

[48]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 31.

[49]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 31.

[50]  Zum Begriff, zu seiner (Un-)Definierbarkeit, sog. schwacher und starker KI siehe Otto, Ri 2018, 68 ff.

[51]  Etzkorn, MMR 2020, 360 (360).

[52]  v. Westphalen, ZIP 2019, 889, der allerdings ebenfalls den Fehlvorstellungen anderer Juristen erlegen ist. Er behauptet, u.a. und ohne Belege, es bestünde „Einvernehmen, dass es sich bei KI um die Beschreibung einer Funktionsweise von Algorithmen handelt.“ Dies ist eine unwahre Aussage. Darüber hinaus behauptet er fälschlich und dies ausschließlich unter Verweis auf juristische Dokumentationen, „beim Einsatz von KI ist die Software imstande, völlig unbekannte und auch noch nicht getestete Lösungen – Funktion der neuronalen Netze – neu zu erlernen und diese auch in der Praxis einzusetzen. Wenn nicht schon bei der Entwicklung der Software bestimmte Lösungen im Programmcode verankert sind, dann ist es so, dass diese neuronalen Netze autonom funktionieren.“ Dabei handelt es sich um eine fiktionale Darstellung, die in Physik, Mathematik und Informatik keine Stütze findet.

[53]  Etzkorn, MMR 2020, 360 (361).

[54]  Herold/Lurz/Wohlrab/Hopf, Grundlagen der Informatik, 3. Aufl., Pearson, S. 721.

[55]  Umfassend, mitsamt Hinweisen auf Kritik und sog. Loopholes: https://en.wikipedia.org/wiki/Three_Laws_of_Robotics (zuletzt abgerufen am 5. Dezember 2020).

[56]  Denga, CR 2018, 69 (71); unkritisch übernommen von Wöbbeking in Kaulartz/Braegelmann, Kapitel 4.2, Rn 5.

[57]  „Wir können eine Ursache definieren als einen Gegenstand, dem ein anderer folgt, wobei allen Gegenständen, die dem ersten ähneln, Gegenstände, die dem zweiten ähneln, folgen.“ Lesenswert dazu von Wachter, Die kausale Struktur der Welt, 2007, Habilitationsschrift an der LMU München, abrufbar unter https://epub.ub.uni-muenchen.de/1975/1/wachter_2007-ursachen.pdf (zuletzt abgerufen am 5. Dezember 2020).

[58]  Denga, CR 2018, 69 (71).

[59] Kaulartz, DSRITB 2015, 501.

[60]  Riehm, RDi (sic!) 2020, 42 (45).

[61]  Natürlich die Blockchain. Riehm, RDi (sic!) 2020, 42 (45).

[62]  http://www.cs.bath.ac.uk/~jjb/web/whatisai.html (zuletzt abgerufen am 5. Dezember 2020).

[63] Riehm, RDi (sic!) 2020, 42 (45).

[64]  Riehm, RDi (sic!) 2020, 42 (45).

[65]  Kaulartz, https://www.cmshs-bloggt.de/tmc/industrie-4-0/autonome-maschinen/ (zuletzt abgerufen am 5. Dezember 2020).

[66]  Specht/Herold, MMR 2018, 40.

[67]  http://www.unece.org/fileadmin/DAM/trans/doc/2020/wp29grva/FDAV_Brochure.pdf (zuletzt abgerufen am 5. Dezember 2020).

[68]  http://www.unece.org/fileadmin/DAM/trans/doc/2020/wp29grva/FDAV_Brochure.pdf (zuletzt abgerufen am 5. Dezember 2020).

[69]  OLG München vom 10. Januar 2019 (29 U 1091/18), Vorinstanz LG München I vom 1. März 2018 (12 O 730/17). Das Urteil des OLG München ist rechtskräftig, vgl. Beschluss des BGH vom 13. Oktober 2020, Az. VIII ZR 161/19, http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?Gericht=bgh&Art=en&Datum=Aktuell&Sort=12288&nr=111906&pos=14&anz=574&Blank=1.pdf (zuletzt abgerufen am 5. Dezember 2020).

[70] Specht/Herold, MMR 2018, 40.

[71]  So das OLG München, Urteil vom 27. Februar 2020 – 29 U 2584/19 https://www.gesetze-bayern.de/Content/Document/Y-300-Z-BECKRS-B-2020-N-5744 (zuletzt abgerufen am 5.  Dezember 2020).

[72]  https://www.spiegel.de/netzwelt/netzpolitik/angela-merkel-warum-die-kanzlerin-an-die-algorithmen-von-facebook-will-a-1118365.html (zuletzt abgerufen am 5. Dezember 2020).

[73] Specht/Herold, MMR 2018, 40.

[74]  https://soztheo.de/kriminalitaetstheorien/biologische-kriminalitaetstheorien/lombrosos-anthropologische-anthropogenetische-kriminalitaetstheorie/ (zuletzt abgerufen am 5. Dezember 2020).

[75]  Möslein, RDi (sic!) 2020, 34 (36).

[76]  https://en.wikipedia.org/wiki/VITAL_(machine_learning_software) (zuletzt abgerufen am 30. November 2020).

[77]  BBC, „Algorithm appointed board director“, 16. Mai 2014, https://www.bbc.com/news/technology-27426942 (zuletzt abgerufen am 30. November 2020).

[78]  Futurismus ist eine Epoche der Kunstgeschichte.

[79]  Vgl. BGH, Urteil vom 7. November 2001, Az. VIII ZR 13/01.

[80]  Vgl. BGH, Urteil vom 7. November 2001, Az. VIII ZR 13/01.

[81]  BGH, Urteil vom 26. Januar 2005, Az. VIII ZR 79/04.

[82]  BGH, Urteil vom 16. Oktober 2012 – X ZR 37/12.

[83]  „Die wohl hM verwendet synonym zum Begriff der automatisierten Willenserklärung zT auch den Begriff ‚Computererklärung‘“, Paulus, JuS 2019, 960.

[84]  Durch klarstellende Klammerzusätze leicht verändert: Le Bon, Psychologie der Massen, Übersetzung Eisler (1911); Viertes Kapitel, § 2 Die veränderlichen Meinungen (opinion mobiles) der Massen. Die Klammerzusätze dienen der Klarstellung, dass die problematisierten Glaubenssätze gemeint sind.

 

Titelbild: © Romolo Tavani, Adobe Stock, Nr. 211657921