Ri 02/2018: Zurück in die Zukunft.

Ri 02/2018: Navigation

Ri 02/2018: Beitrag

Erfordert eine Revolution der Technologie eine Revolution des Rechts?

Künstliche Intelligenz, Robotik und Recht - Tagungsbericht

Kai Wendt*

Bei der rasanten Entwicklung in den Bereichen der künstlichen Intelligenz und Robotik erscheint die in der Überschrift aufgeworfene Eingangsfrage wohl durchaus angebracht. Unternehmen und Forschung präsentieren der Öffentlichkeit regelmäßig neue Fortschritte und Errungenschaften. Autonome Fahrzeuge und Drohnen sind längst keine Seltenheit mehr und werden in naher Zukunft auf dem freien Markt verfügbar sein. Doch diese beiden Beispiele bilden voraussichtlich erst den Anfang. In Zukunft werden wir noch häufiger mit autonomen Systemen zusammenarbeiten, wir werden von smarten Maschinen bewertet und künstliche Intelligenzen treffen eigenständige Entscheidungen, die – natürlich – auch uns tangieren. Diese Neuerungen werden sich nachhaltig auf unsere Gesellschaft auswirken und unsere Zukunft beeinflussen. Um diese Herausforderungen für die Gesellschaft mitzugestalten, wurde 2017 die Robotics & AI Law Society e.V. (RAILS) gegründet. Das Ziel der RAILS ist es, die Entwicklung von autonomen Systemen interdisziplinär, aber insbesondere aus rechtlicher und ethischer Sicht, zu begleiten, einen Rechtsrahmen mitzugestalten und so auf eine verantwortungsvolle Gestaltung von autonomen Systemen hinzuwirken. Um die Arbeit der RAILS offiziell zu starten und einen ersten Überblick zu geben, fand am 23. März 2018 die 1. Fachtagung der Gesellschaft zum Thema „Künstliche Intelligenz, Robotik und Recht – Stand der Forschung und offene Rechtsfragen“ im Leibnizhaus in Hannover statt. Die 120 Gäste erhielten durch die mehr als zwölf Referenten einen umfassenden Einblick in die Möglichkeiten und Grenzen der Technologie sowie den sich daraus ergebenden Rechtsfragen.

___STEADY_PAYWALL___

Nach der Eröffnung der Veranstaltung durch den Vorsitzenden des RAILS e.V., PD Dr. Martin Ebers, gefolgt von Grußworten des Präsidenten der Leibniz Universität Hannover, Prof. Dr. Volker Epping, wandte sich MdEP Jan Philipp Albrecht an die Teilnehmer. Epping und Albrecht wiesen beide darauf hin, dass die weitere Entwicklung dieser Technologien relevant und bedeutsam für unsere Zukunft sei und eine wissenschaftliche Begleitung nicht nur wünschenswert, sondern auch zwingend erforderlich wäre. Die mit der Entwicklung einhergehenden Risiken und Gefahren müssten identifiziert und minimiert sowie die Gesellschaft informiert und eingebunden werden. Nur so könne man eine gemeinverträgliche Entwicklung gewährleisten und alle Mitglieder der Gesellschaft daran teilhaben lassen.

 

1. Technik und Regulierung

 

Die Tagung begann mit einem Abriss zu den Mög-lichkeiten neuer Technologien, aktuellen Problemen und einen Ausblick auf mögliches zukünftiges Recht.

 

Prof. Dr. Sami Haddadin (Universität Hannover) referierte zu der Funktionsweise von autonomen Systemen und Robotern. Damit gab er einen informativen Einstieg in die Welt der KI und Robotik, bei der er die tatsächlichen Möglichkeiten der heutigen Technologie und deren Grenzen darstellte. Hierbei wurde schnell klar, dass sich die Erwartungen an und Vorstellungen über die Technik, erheblich von den tatsächlichen Möglichkeiten unterscheidet. Der Ausblick auf die kommenden Entwicklungen versprach aber dennoch eine Optimierung in vielen Bereichen. Zu diesen Verbesserungen gehören vor allem die Unterstützung durch Roboter bei medizinischen Operationen, die robotergestützte Pflege (Geriatronik), aber auch die automatisierte Erfüllung von alltäglichen Aufgaben zur Fehlerminimierung. Haddadin schloss seinen Vortrag mit der Aufforderung, bei der Entwicklung der Technologie den Menschen in den Mittelpunkt zu stellen.

 

Im Anschluss griff Prof. Dr. Nikolaus Forgó (Universität Wien) einige aktuelle Fälle aus rechtlicher Sicht auf, insbesondere den jüngsten tödlichen Unfall, verursacht durch ein autonomes Fahrzeug der Firma Uber in Tempe, Arizona (USA). In seinem Vortrag arbeitete Forgó heraus, dass der Unfall mit sehr hoher Wahrscheinlichkeit auch durch einen menschlichen Fahrer nicht zu verhindern gewesen wäre. Hier wurde durch den Menschen nicht eingegriffen, weil sich die Fahrzeugführerin zum Unfallzeitpunkt gerade vom Straßenverkehr abgewandt hatte. Auch nach deutschem Recht, § 1b StVG, wäre das kurze Abwenden vom Straßenverkehr erlaubt gewesen. In diesem konkreten Fall lagen zwischen Erkennbarkeit des Fußgängers und der Kollision lediglich 1,4 Sekunden. Trotzdem stelle sich hier die Frage, ob die Sensoren des Fahrzeugs den Fußgänger nicht auch außerhalb des menschlichen Sichtfeldes hätten erfassen können bzw. sogar müssen. Zumindest Radarsensoren sollten auch Gegenstände außerhalb des tatsächlichen Sichtbereiches, zumindest eingeschränkt, erfassen können. Wenn die Technik in der Lage ist, den Fußgänger zu erkennen, muss ein entsprechender Ausweichvorgang eingeleitet werden. In diesem konkreten Fall wäre es für die Sensoren wohl möglich gewesen, denn das Unfallopfer wurde nicht durch irgendwelche Hindernisse verdeckt und es gab kaum weitere Verkehrsteilnehmer. Die Technik hätte hier versagt, obwohl sie die Situation im Gegensatz zum Menschen hätte lösen können. Fraglich sei deshalb, ab wann es ethisch und rechtlich geboten ist, die Steuerung bzw. Entscheidung auf die Maschine auszulagern, wenn diese eine bessere oder sichere Alternative zum Menschen ist.

 

Hieran knüpfte Prof. Dr. Hans-Peter Schwintowski (Humboldt Universität Berlin) an und stellte die a prima vista utopisch anmutende These auf, dass künstliche Intelligenz eine bessere Welt kreieren könne. Diese These basierte auf der Annahme Schwintowskis, dass die Maschinen die Schwachstellen der Menschheit ausfüllen könnten. Der Einsatz von künstlicher Intelligenz würde kurzfristig gesehen viele Neuerungen in den Bereichen des Verbraucherschutz-, Haftungs- und Datenschutzrechts erfordern, aber langfristig signifikante Probleme lösen, sodass die „Knappheitsprobleme in allen Lebensbereichen“ überwunden werden könnten. Für Schwintowski liegt hier der Kern der relevanten Konflikte und Kriege. Mit einer durch KI gesteuerten Verteilung von Ressourcen ließen sich somit nicht nur Hunger und Armut bekämpfen, sondern zugleich eine Art „Weltfrieden“ herstellen.

 

2. Verantwortung

 

Im zweiten Tagungsabschnitt stand die Regulierung der Verantwortlichkeiten für künstliche Intelligenzen und Robotern im Mittelpunkt. Aus haftungsrechtlicher Sicht ist keine Revolution erforderlich – so lässt sich das Resümee von Prof. Dr. Jan Eichelberger (Universität Hannover) wohl schlagwortartig zusammenfassen. Sowohl aktuell als auch in näherer Zukunft stünden hinter jedem System noch natürliche Personen. Das existierende Haftungsregime sei durchaus bereits darauf ausgelegt, Sachverhalte zu handhaben, bei denen eine natürliche Person nicht direkt aktiv agiert, sondern sich lediglich passiv beteiligt. Die Zurechnung System-Mensch ließe sich somit weitgehend herstellen. Das Produkthaftungsrecht müsse eine zentrale Rolle einnehmen, wenn Eigentümer oder Besitzer für den Schaden mangels Verschulden scheinbar nicht verantwortlich gemacht werden können, aber auch eine mögliche Ausweitung der Sachmangelhaftung sei denkbar. Kleinere Anpassungen seien notwendig, um den Verbraucher und Geschädigte besser zu schützen. Die Einführung einer sogenannten „Elektronischen Person“ hält Eichelberger zurzeit für nicht erforderlich. Diese Diskussion wäre erst dann zu führen, wenn Roboter geeignet und befähigt sind ein eigenes Vermögen aufzubauen sowie aus Sanktionen zu lernen.

 

Im Regulierungsrecht, so Prof. Dr. Mario Martini (Universität Speyer), bestehe dagegen noch substantieller Handlungsbedarf. Hier mangele es bislang an Vorschriften und Ansätzen zur Handhabung des Einsatzes von künstlicher Intelligenz und Algorithmen. Obwohl der Alltag und unser Zusammenleben vermehrt durch den Einsatz von (selbstlernenden) Algorithmen bestimmt werde, seien Vorschriften zum Einsatz dieser Algorithmen rar und vor allem im Datenschutzrecht zu finden, z.B. in Art. 22 DSGVO. Martini plädiert für einen ausgewogenen und ganzheitlichen Ansatz zur Regulierung, um die Risiken der neuen Technologien zu minimieren, ohne zugleich Innovation zu hemmen. Grundlegende Probleme, etwa Diskriminierung durch Algorithmen und Intransparenz der Entscheidungsfindung müssten demnach bereits präventiv angegangen werden. Der Gesetzgeber solle ergänzend dazu ein standardisiertes Modell zum Training von Algorithmen entwickeln und deren Einsatz vorschreiben. Ein weiteres Element einer etwaigen Regulierung könnten begleitende Prozesse sein, so zum Beispiel eine Routinevalidierung (in Form von Kontrollalgorithmen und behördlichen Auskunfts- und Kontrollrechten) sowie Vorgaben zur Beweissicherung. Als letzte Stufe seien Beweiserleichterungen für den Betroffenen sowie Verbandsklagerechte und eine Schlichtungsstelle zu erwägen. Weiterhin regte Martini eine Vorschrift zur Selbstregulierung an, angelehnt an § 161 AktG. Nutzer bzw. Anwender von künstlicher Intelligenz sollten daher eine Art Erklärung bzw. Selbstverpflichtung in Form eines „Algorithmic Responsibility Codex“ abgeben.

 

Prof.‘in Dr. Susanne Beck (Universität Hannover) sah sodann im Rahmen der strafrechtlichen Verantwortung – im Gegensatz zu Eichelberger hinsichtlich des zivil-rechtlichen Pendants – vor allem ein Problem in der klassischen Anwendung der Zurechenbarkeit. Dieses Problem entstehe vor allem, wenn es sich nicht um eine automatisierte Handlung, bei der ein Mensch die Handlung fest vorprogrammiert hat oder sogar fernsteuert, sondern um eine autonome Entscheidung handelt, die durch die Maschine auf Grundlage ihrer Erfahrungs- und Entscheidungsprozesse getroffen wurde. Denn hier gelte es nachzuvollziehen, ob es sich um eine Fehlfunktion handelt und der Algorithmus möglicherweise defekt ist oder ob durch die erfassten Trainingsdaten die Entscheidung für den Roboter richtig war. Während man bei einer Fehlfunktion noch den Hersteller belangen könnte, fehle bei der zweiten Alternative schon ein möglicher Adressat. Hier sei zu überlegen, ob ab einer gewissen Entscheidungserheblichkeit immer der Mensch eingebunden werden müsse. Die Robotik muss hier ständig begleitet werden um etwaige Strafbarkeitslücken zu vermeiden.

 

3. Wirtschaft und Kontrolle

 

Neben einer etwaigen Regulierung der Algorithmen durch den Staat, hat die Tagung auch das Verhältnis zwischen natürlichen Personen bei Einbindung von künstlicher Intelligenz zum Gegenstand gehabt. Vertragliche Probleme beim Einsatz von künstlicher Intelligenz hat Prof.‘in Dr. Christiane Wendehorst (Universität Wien) am Beispiel des Internet of Things und der Vernetzung von Alltagsgegenständen dargelegt. Nach Wendehorst müssten die Sachverhalte unterschieden werden. Zum einen gäbe es die automatisierte Durchführung von Verträgen, die zwar ohne ein weiteres Handeln des Menschen durchgeführt werden, aber eingangs durch den Menschen initiiert wurde. Zum anderen gäbe es die autonom durchgeführten Vertragsschlüsse, bei denen die Verträge nicht durch den Nutzer, sondern einer KI geschlossen werden, auf die der Nutzer nur einen geringen Einfluss hat. Weiterhin gäbe es aber auch die dezentralisierten Ansätze, bei denen teilweise ein konkreter Vertragspartner fehlt. In allen Konstellationen ergäben sich Probleme in der Zurechnung und der vertraglichen Haftung. Insgesamt ging Wendehorst davon aus, dass das Vertragsrecht in seiner jetzigen Form zu sachgerechten Ergebnissen führt. Dennoch seien bestimmte Bereiche an die neuen Gegebenheiten anzupassen, unter anderem das Irrtumsrecht, aber auch des Produkthaftungsrecht zugunsten des Verbrauchers.

 

Auch im unternehmerischen Bereich wird vermehrt auf KI und Algorithmen zurückgegriffen, um Leitungs-entscheidungen zu optimieren. Prof. Dr. Florian Möslein (Universität Marburg) warf dabei die Frage auf, ob künstliche Intelligenz als eigenständiges Organ der Gesellschaft fungieren könne und wie weit die Gesellschafter bestimmte Entscheidungen an Algorithmen delegieren dürften oder sogar müssten, um das beste Ergebnis zu erreichen. Das Gesellschaftsrecht sei zwar auf Leitungsentscheidungen von Menschen ausgelegt, ließe sich aber im Grundsatz auch auf künstliche Intelligenz anwenden. Im Zweifel müsse aber der Einzelfall betrachtet werden und die entsprechenden Bereiche des Rechts fortentwickelt werden um Rechtsklarheit zu schaffen.

 

Wie Arbeit in Zukunft aussehen könnte und welche arbeitsrechtlichen Implikationen das Voranschreiten intelligenter Systeme insofern mit sich bringen, war Gegenstand des Vortrags von Prof. Dr. Roland Schwarze (Universität Hannover). Schon jetzt unterlaufe bzw. missachte die „Arbeit 4.0“ bisherige arbeitsrechtliche Standards. So leide u.a. das Arbeitszeitrecht unter der Flexibilisierung der Arbeit, da Arbeitszeit und Freizeit verschwimmen. Weitere Probleme fänden sich in der Wegrationalisierung von Stellen, indem einfache Arbeiten durch Roboter und automatisierte Prozesse übernommen werden. In der Zukunft könne es zudem dazu kommen, dass auch komplexe Aufgaben an Roboter outgesourct werden. Hier müsse das Arbeitsrecht reagieren und den Arbeitnehmer schützen.

 

4. Rechtsanwendung: Durchsetzung und Realisierung

 

Abschließend blieb noch die Frage zu klären, wie künst-liche Intelligenz und autonome Systeme genutzt werden können, um geltendes Recht durchzusetzen. Ob auch – im weitesten Sinne – im Gerichtssaal KI eingesetzt werden kann, war Gegenstand der Ausführungen von Prof. Dr. Stefan Huber (Universität Tübingen). Die Unterstützung der Richter bei der Urteilsfindung, der elektronischen Kommunikation oder Online-Verfahren seien nur wenige mögliche Anwendungsfälle. Bisher sieht die ZPO solche Fälle noch nicht vor, gerade erst wurde die Videoübertragung im Saal ermöglicht. Das Recht müsse aber an die aktuellen Entwicklungen der Technologien angepasst werden, um auch die Gerichte zu entlasten. Dabei könnten schon standardisierte Online-Verfahren ein erster Schritt sein, sodass einfache Fälle anhand von objektiven Beweisen durch ein intelligentes System entschieden werden könnten.

 

Das Verwaltungsverfahrensrecht dagegen, bietet bereits erste Ansätze. Einfache Verwaltungsverfahren, ohne Ermessensspielraum, könnten automatisiert bearbeitet und entschieden werden, befand Prof. Dr. Thomas Wischmeyer (Universität Bielefeld), der insofern insbesondere die Verfahren aus der Abgabenordnung und dem Sozialrecht nannte. Die Automatisierung der Verwaltungshandlungen dürfe aber nicht zu Lasten des Adressaten gehen und alle Aspekte, die im Rahmen einer Anhörung durch einen natürlichen Sachbearbeiter in Erwägung gezogen werden, müssten auch hier Eingang in die Entscheidung finden. Einfache Interessensabwägungen dürften dann in Zukunft auch durch ein System entschieden werden. Wichtig hierbei sei die Transparenz und Vorhersehbarkeit der Entscheidung.

 

Zum Abschluss der Tagung referierte Dr. Benjamin Werthmann (w-s.legal Rechtsanwälte GbR) zu den aktuellen Themen und Entwicklungen im Legal Tech-Bereich. Obwohl der Rechtsmarkt noch dabei sei, seine Verfahren insgesamt zu digitalisieren, gebe es bereits erste Bestrebungen auch KI und automatisierte Verfahren zur Unterstützung einzusetzen. Hier stehe im Vordergrund, die Effizienz der Kanzleien zu steigern und sich stetig wiederholende Tätigkeiten an Automaten auszulagern. Anwälte könnten sich dadurch auf die wesentlichen Aufgaben konzentrieren und dem Mandanten im Ergebnis eine bessere Beratung bieten.

 

5. Fazit

 

Nein! Das dürfte wohl die Antwort auf die Eingangsfrage – erfordert eine Revolution der Technologie eine Revolution des Rechts? – sein. Im Duden wird die Revolution als radikale Veränderung der bestehenden politischen und gesellschaftlichen Verhältnisse beschrieben. Auf die Technologie mag die radikale Veränderung zutreffen. Die Leistungsfähigkeit der Computer hat sich in den letzten Jahren rasant entwickelt und zusammen mit der Vernetzung verändern sich die Prozesse schneller als nach der Erfindung der Dampfmaschine, die bekanntermaßen zur industriellen Revolution führte. Offen ist somit ob es auch im Recht auf eine radikale Veränderung hinausläuft und man von einer Revolution sprechen kann. Das Recht muss sich gewiss auf die neuen Technologien einstellen und dementsprechend anpassen, aber eine Disruption des Rechts ist nicht ersichtlich. Die kritische wissenschaftliche Auseinandersetzung mit den Technologien erscheint zwingend notwendig und eine entsprechende Ausge-staltung des Rechts ist nötig. Die Rahmengebung darf dabei nicht auf eine „Technophobie“ oder Hemmung der Innovation hinauslaufen. Dennoch muss das Recht für die Gesellschaft nachvollziehbar und auch vorhersehbar bleiben, was einer radikalen Veränderung im Sinne einer Revolution widerspricht. Das Recht wird sich eher langsam und fortschreitend weiterentwickeln, weshalb es sich eher um eine Evolution als Revolution des Rechts handelt. Forgó prognostizierte außerdem in seinem Vortrag, dass die Rechtsphilosophie und -theorie in den nächsten Jahren einen starken Aufschwung erleben würde. Die Prognose erscheint angesichts der Fortschritte zutreffend, da die Technologie in der Lage sein wird, einen strukturellen Wandel zu initiieren und gegenwärtige Ansätze zur Rechtsfindung und -setzung wohl überdacht und angepasst werden müssen. Das wäre dann doch eine kleine Revolution.

 

Die angeregten Diskussionen im Anschluss an die Vorträge und die intensiven Gespräche in den Pausen sowie das Feedback der Gäste lassen auf eine erfolgreiche Auftaktveranstaltung schließen. Im nächsten Jahr wird die zweite und größere Fachtagung stattfinden. Bis dahin werden, neben verschiedenen kleineren Konferenzen[1], die Fachsektionen ihre Arbeit aufgenommen haben und idealiter erste Ergebnisse präsentieren. Weitere Informationen und die Möglichkeit RAILS als Mitglied beizutreten finden sich auf der Webseite unter www.ai-laws.org. 

A

A

*Wissenschaftlicher Mitarbeiter und Doktorand am Institut für Rechtsinformatik (www.iri.uni-hannover.de) der Leibniz Universität Hannover.


[1] Siehe etwa: „1st RAILS Tech & Law Camp hosted by firma.de“, https://tinyurl.com/y7dh4tuv.

 

Titelbild: © ApricotBrandy via Adobe Stock, #159088614