Ri 03/2020: down the rabbit hole.

Ri 03/2020: Navigation

Ri 03/2020: Beitrag

Jede Menge „robota“

Dr. Aleksandra Sowa

Auf mehr als tausend Seiten setzen sich die Autoren des Rechtshandbuchs Künstliche Intelligenz und Robotik[1] mit aktuellen technischen und rechtlichen Aspekten und Anwendungen „intelligenter“ Technologien auseinander. Und stellen fest: Was gesetzliche Vorgaben angeht, muss nicht alles neu gemacht werden. Es gibt dennoch einiges zu tun. Vor allem zu lesen.

In ihrer ursprünglichen Form lauten die drei (später vier) Robotergesetze folgendermaßen:

„1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.

3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.“[2]

Für die „Drei Gesetze der Robotik“ brauchte der Science-Fiction Autor Asimov lediglich ein paar Zeilen in seiner im Jahr 1942 veröffentlichten Kurzgeschichte „Runaround“, wie die Autoren des ersten, der Geschichte der Robotik gewidmeten Kapitels des Rechtshandbuchs über „Grundlagen und Anwendungen der Robotik“, Haddadin und Knobe, feststellen.

Wesentlich umfangreicher fällt die aktuelle Auseinandersetzung zu dem Thema in dem Rechtshandbuch „Künstliche Intelligenz und Robotik“, herausgegeben von Ebers, Heinze, Krügel und Steinrötter, bei C. H. Beck aus. Das mehr als tausend Seiten zählende Werk setzt sich mit einer Vielzahl aktueller Fragen im Zusammenhang mit der Robotik, des Machine Learning, mit (lernenden) Algorithmen, vernetzten Systemen sowie dem, was heute allgemein als Künstliche Intelligenz (KI) bezeichnet wird, auseinander. Die Schwerpunkte bilden ihr Einsatz in der Medizin oder Pflege, Industrie, automatisierte Transporte oder Journalismus bis hin zu Verbrechensbekämpfung und Kriegseinsätzen. Hinzu kommt eine Reihe von prominent diskutierten Anwendungsaspekten abseits von Robotik und KI, wie etwa Legal Tech, Blockchain, Distributed Ledger und Smart Contracts. Vertieft werden verschiedene Gebiete des Rechts, die von Robotik und KI tangiert werden können, so z.B. die seit einigen Jahren kontrovers diskutierte zivilrechtliche Haftung, aber auch sicherheitstechnische und datenschutzrechtliche Aspekte der KI, vertragsrechtliche und verbraucherrechtliche Fragestellungen, strafrechtliche Implikationen, Herausforderungen für Arbeits- und Urheberrecht sowie Patentrecht und schließlich KI in Zusammenhang mit Gesellschaftsrecht.

Wider das haftungsrechtliche Vakuum

Während die Haftungsfragen in Robotergeschichten von Asimov recht einfach geregelt sind, weil die Roboter bzw. die positronischen Gehirne stets Eigentum des einzigen und stets verantwortlichen Herstellers bleiben, sind die Haftungsfragen anno 2020 von wesentlich komplexerer Natur. Die deliktische Haftung des Herstellers, des Zulieferers, des Dienstleisters und des Anwenders wurden in der Wissenschaft diskutiert und von der Rechtsprechung geprägt. Aus der Lernfähigkeit der „intelligenten“ Systeme sollen sich jedoch grundlegend neue Aspekte ergeben: Die „Handlungen“ solcher Systeme seien nicht mehr deterministisch bzw. vorhersehbar: „Es steht nicht mehr nur die ‚Ursprungsprogrammierung‘ im Raum, sondern die fortwährende selbständige Weiterentwicklung des Systems[3], konzediert Eichelberger. Im Falle der sog. starken KI agiere das System gar „autonom[4].

Verschiedene Ansätze zur zivilrechtlichen Haftung, de lege lata und de lege ferenda, finden sich in Eichelbergers Kapitel, in dem sog. lernende Systeme als „intelligente Systeme“ und das aus der möglichen Unvorhersehbarkeit ihrer Aktionen resultierende Risiko als „Intelligenzrisiko[5] bezeichnet werden. Er diskutiert die Haftung des Herstellers, konkret die Produzentenhaftung gemäß § 823 Abs. 1 BGB, die Produkthaftung gemäß § 1 ProdHaftG sowie Haftung wegen Schutzgesetzverletzung gemäß § 823 Abs. 2 BGB sowie die Haftung des Anwenders. Im Bereich der Haftung de lege ferenda schlägt er verschiedene Formen des Schadensausgleichs im Zusammenhang mit „intelligenten Systemen“ vor, konkret die Gefährdungs- oder Fehlerhaftung für solche Systeme,[6] die Entschädigungsmöglichkeit mit einem Entschädigungsfonds[7] oder der am weitesten reichende Ansatz der Eigenhaftung des „intelligenten Systems“.[8] Im letzteren Falle müsste eine neue, „elektronische Person“ (E-Person) etabliert und so „intelligente Systeme“ neben natürlichen und juristischen Personen mit „eigener Rechtspersönlichkeit“ ausgestattet werden.[9]

Die Eigenhaftung „intelligenter Systeme“ ist „auf vielfachen Widerspruch gestoßen[10], gibt der Autor zu: Um beispielsweise der Schadensersatzpflicht nachzukommen, müssten solche Systeme über „eigenes“ Vermögen verfügen.[11] Ein Dilemma, das insbesondere aus Asimovs Erzählung „Der Zweihundertjährige“[12] bekannt sein dürfte. Dort vertrat eine ganze Dynastie von Anwälten einen Roboter, der sich Schritt für Schritt Menschenrechte erwarb, wie beispielsweise die Einkünfte aus dem Verkauf seiner Schnitzereien behalten zu dürfen, Kleidung zu tragen und schließlich, sterben zu dürfen. Mehrere Generationen von Anwälten waren hierfür notwendig. Am Ende war der Roboter Andrew sogar selbst Teilhaber der Kanzlei, die ihn – dann allerdings nolens volens – vertrat.

Infolge seiner Untersuchung kommt Eichelberger zu einem überraschenden Ergebnis: Der Einsatz „intelligenter Systeme“ erfolgt heute keinesfalls in einem „haftungsrechtlichen Vakuum“. Vielmehr sei das gegenwärtige Haftungsrecht „hinreichend flexibel, um die neuartigen Risiken, die sich aus den praktisch relevanten oder in absehbarer Zeit relevant werdenden Anwendungsfeldern zeigen, sachgerecht einzufangen[13]. Er sieht somit auch keinen Bedarf für eine „allgemeine Gefährdungshaftung für intelligente Systeme“ und rät vielmehr zur sektoriellen bzw. anwendungsbezogenen Feinsteuerung. Hierfür könnten sich „bereichspezifische Regelungen anbieten, um den Akteuren einen haftungsrechtlich sicheren Handlungsraum vorzugeben[14].

(Kein) Salomon 2020?

Sprenger widmete sich in dem Kapitel über Verbrechensbekämpfung verschiedenen – aktuellen sowie potenziellen – Anwendungsmöglichkeiten, etwa im Bereich der Strafjustiz. Dabei fokussiert sie sich zum einen auf die Vorbereitung richterlicher Entscheidungen, aber auch die Möglichkeiten der Datenanalyse insgesamt, „sei es zum Zwecke von orts- oder personenbezogenen Risikoprognosen oder zur Identifizierung kriminellen Verhaltens oder gesuchter Personen[15]. Zum anderen liegt ihr Fokus auf Predicitive Policing und „intelligenter“ Videoüberwachung, die in der Vergangenheit besonders kontrovers diskutiert wurden.

Staatlich und im privatwirtschaftlichen Umfeld eingesetzte Methoden automatisierter Prognosen (Predictive Analytics) sollten nach Sprenger hauptsächlich dem Zweck einer besseren aktiven oder passiven Strafvorbeugung und ggf. auch Strafverfolgung dienen, z.B. in Unternehmen Compliance-Verstoße verhindern helfen.[16] Neben dem gewünschten Zuwachs an Effektivität stünden oft, wie bspw. in Fall des Predicitive Policing, das heute sowohl in den USA als auch in Deutschland in der Polizeiarbeit praktisch erprobt wird, auch Effizienzziele im Vordergrund: „Charakteristisch hierfür ist der Einsatz algorithmischer Prognosesysteme, die aus vorhandenem Datenmaterial lagebezogene Wahrscheinlichkeitsaussagen ableiten und ein zielorientiertes präventives Einschreiten der Polizei und damit eine effektivere Ressourcenplanung ermöglichen.[17] Viele dieser Systeme würden heute das Maschinelle Lernen anwenden, um ganz auf die „theoretischen Grundeinnahmen zu Kausalitätszusammenhängen“ zu verzichten und ihre Ergebnisse lediglich auf die Korrelationen in den Daten stützen, wie bspw. die in den USA entwickelte Software HunchLab.[18] In den USA, wo der Begriff „Predictive Policing“ durch eine sehr frühe Anwendung geprägt wurde, würde HunchLab neben PredPol u. a. zur Vorhersage von Gewalttaten oder Bandenkriminalität benutzt.[19] Sprenger unterscheidet zwischen ortsbezogenen Prognosesystemen, also solchen, wobei es sich um „Vorhersage von Tatorten und -zeiträumen zu bestimmten Deliktsarten[20] handelt, und personenbezogenen Prognosesystemen, die „personenbasiert mögliche Straftäter oder auch Opfer von Straftaten identifizieren sollen[21].

Während Prognosesysteme, die anhand historischer Daten Prognosen darüber ableiten, „ob eine Person zukünftig (ggf. erneut) Gewalttaten verüben wird[22] stark in der öffentlichen Kritik stehen, „zeichnen sich auch in Deutschland erste Formen personenbezogener automatisierter Vorhersage von Kriminalitätswahrscheinlichkeiten ab[23], stellt Sprenger fest und führt als Beispiele das Risikobewertungssystem RADAR-iTE[24], „Frühwarnsysteme“ sowie sog. Social Media Intelligence auf, bei der beispielsweise mithilfe sog. Crawler bestimmte Inhalte in sozialen Netzwerken ermittelt werden und weist nicht zuletzt auf die Möglichkeiten des Musterabgleichs nach § 4 Abs. 2 FlugDaG[25] hin. Obwohl sich die Wirksamkeit der verschiedenen Instrumente des Predicitive Policing bisher nur eingeschränkt überprüfen lässt, stellt Sprenger fest, greifen Länder auf kommerzielle Datenanalyseprodukte zurück, um Datenauswertungen anhand verfügbarer und/oder beschlagnahmter Daten bzw. Datenträger durchzuführen.[26] So beispielsweise das Land Hessen, das zu Analysezwecken die Software Gotham der Firma Palantir angeschafft hat und die Funktionalitäten unter der Bezeichnung HessenDATA gesetzlich in § 25a HSOG verankerte.[27] Gegen § 25a HSOG sei inzwischen eine Verfassungsbeschwerde anhängig, schreibt Sprenger: Die automatisierte Datenanalyse weist „durch den automatisierten Zugriff auf eine Vielzahl von Quellen eine hohe Streubreite“ auf, „ohne hierbei eine konkrete Gefahr oder einen Straftatverdacht vorauszusetzen und auch Daten bisher unverdächtiger sowie unbeteiligter Personen betreffen kann“[28].

Datenschutz-Folgenabschätzung als Mittel der Wahl

Sprenger beobachtet die „Entwicklung erster allgemeiner Kriterien zu den rechtlichen Anforderungen an die Anlassbezogenheit automatisierter prognose- und vorfeldbezogener Datenauswertung[29] und sieht Bedarf an Berücksichtigung weiterer Verhältnismäßigkeitskriterien. Aus der Rechtsprechung des BVerfG und des EuGH ergäben sich erste Ansätze, „die eine gewisse Erheblichkeit der jeweils geschützten Rechtsgüter verlangt und gesetzgeberischer Ausgestaltung bedarf“.[30] Die Frage, die sich insbesondere bei Verfahren zur Verhaltensmustererkennung und -prognose stellt, laute, ob die Verhaltensweisen, die die Grundlage des Musterabgleichs darstellen, ebenfalls einer „gesetzlichen Konkretisierung“ bedürfen, „damit für betroffene Personen erkennbar ist, welche Verhaltensweisen möglicherweise zu einem ‚Treffer‘ führen“.[31]

Neben der gesetzlichen Normierung der Kriterien diskutiert Sprenger die Möglichkeit, „Vorgaben für die technische Ausgestaltung der Analysemethoden“ zu unterbreiten.[32] Um solchen Risiken, wie Diskriminierung oder Fehldiagnosen, entgegenzuwirken, sollten möglicherweise weitere Kontrollmechanismen im Vorfeld des Einsatzes der Datenanalyse- und Datenauswertungssysteme eingeführt werden, die über die Vorgabe der Datenschutz-Folgeneinschätzung gemäß Art. 27 Richtlinie (EU) 2016/680 (kurz: JI-Richtlinie oder auch JI-RL) bzw. § 67 BDSG hinausgehen.[33]

Falls KI Straftaten begeht …

Die JI-RL, wie die DSGVO am 27. April 2016 erlassen, erläutern Eberstaller und Forgó im Kapitel „KI-spezifische Rechtsfragen der Cybersicherheit“, umfasst Sonderdatenschutzregelungen für die Strafverfolgung und Strafvollstreckung. Sie wird gemäß den Ausführungen der Autoren neben der DSGVO und der NIS-Richtlinie[34] (NIS-RL) herangezogen, wenn es um die Klärung der Fragen geht, wer für die Sicherheit bzw. sichere Entwicklung und den sicheren Einsatz von KI verantwortlich bzw. haftbar ist, schließlich „wirft der vermehrte Einsatz von künstlicher Intelligenz Zurechnungsfragen auf und wird zum Gegenstand europarechtlichen Interesse“, stellen Eberstaller und Forgó fest.[35] Die JI-RL ist gemäß Art. 2 Abs. 1 JI-RL auf die Verarbeitung von personenbezogenen Daten durch die zuständigen Behörden, die Verantwortlichen im Sinne der JL-RL, und gemäß Art. 1 Abs. 1 JL-RL zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit“ ausgerichtet.[36] Schadensersatzanspruchsgrundlagen, Zurechnungsnormen oder auch Bußgeldvorschriften enthält sie nicht. Gemäß Erwägungsgrund 88 sollten Schäden jedoch, die einer Person aufgrund einer Verarbeitung entstehen, die gegen nach der JL-RL erlassene Vorschriften verstößt, von dem Verantwortlichen oder einer anderen nach dem Recht der Mitgliedstaaten zuständigen Behörde ersetzt werden. Begriffe wie „Künstliche Intelligenz“, „autonom“ oder Verantwortlichkeit finden sich darin ebenfalls nicht. Aber, so steht es in Erwägungsgrund 3 der gemäß Erwägungsgrund 18 zum Schutz von Umgehung technologieneutralen JI-RL, die Technik mache es möglich, dass für die Ausübung von Tätigkeiten wie die Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder die Strafvollstreckung in einem noch nie dagewesenen Umfang personenbezogene Daten verarbeitet werden können. Der freie Verkehr personenbezogener Daten zwischen den zuständigen Behörden sollte daher gemäß Erwägungsgrund 4 der JL-RL erleichtert und dabei gleichzeitig ein hohes Schutzniveau für personenbezogene Daten gewährleistet werden. Insbesondere, so bestimmt es Art. 11 Abs. 1 der JL-RL: sollen die Mitgliedstaaten dafür Sorge tragen, dass eine ausschließlich auf einer automatischen Verarbeitung beruhende Entscheidung — einschließlich Profiling —, die eine nachteilige Rechtsfolge für die betroffene Person hat oder sie erheblich beeinträchtigt, verboten ist. Es sei denn, sie ist nach dem Unionsrecht oder dem Recht der Mitgliedstaaten, dem der Verantwortliche unterliegt und das geeignete Garantien für die Rechte und Freiheiten der betroffenen Person bietet, zumindest aber das Recht auf persönliches Eingreifen seitens des Verantwortlichen, erlaubt.

Auch wenn Software zunehmend intelligenter und autonomer agiert, sind wir dennoch noch nicht an dem Punkt angelangt, an dem eine Zurechnung zum dahinterstehenden Menschen scheitern würde“, konzedieren Eberstaller und Forgó. Wenn also irgendwann die KI die Menschheit ausradieren sollte, bliebe ihr Betreiber weiterhin verantwortlich. Es sei für den Betreiber „heute zumindest abstrakt vorhersehbar, welche Entscheidungen unter Einbeziehung welcher Daten von der KI getroffen werden[37], so die Autoren, weswegen er dazu verpflichtet sei, sich vor der Verwendung der KI über ihre Eigenschaften zu informieren, die Einzelfallentscheidungen zu überwachen und ggf. korrigierend einzugreifen.[38]

…der Mensch bleibt verantwortlich.

Von der Etablierung einer neuen, elektronischen Person (E-Person) und Ausstattung intelligenter Systeme oder Roboter mit eigener Rechtspersönlichkeit [39] und Schuldfähigkeit sind wir wohl noch weit entfernt. Gleichzeitig aber sind Akte von Maschinen dem Menschen offenbar doch nicht so klar zugeordnet wie in Asimovs Robotergeschichten.

Die Menschen bleiben die Hauptakteure der Interaktion von und mit Maschinen. Daher müsse sich der Betreiber der KI „bei der Auswahl der Software vergewissern, dass sie die notwendige Sicherheit mitbringt“, erklären Eberstaller und Forgó. „Des Weiteren ist er verpflichtet, die KI in ihrer laufenden Tätigkeit zu überwachen und, falls Fehler erkennbar werden, diese zu beheben oder die Software nicht weiter zu verwenden.“[40] Seiner Pflicht, sich vor der Verwendung der KI über deren Eigenschaften zu informieren, könne der Betreiber auf vielerlei Weise nachgehen: Lektüre der technischen Pflichtenhelfe, der AGB, Datenschutzerklärungen oder die Quellcodeanalyse gehören zu den naheliegenden Möglichkeiten.[41]

Doch auch die Science-Fiction-Romane oder Hollywood-Blockbuster sind offenbar eine gute Quelle für die Identifizierung potenzieller Risiken und Herausforderungen. Man kann sich kaum etwas Schöneres vorstellen, als sich von Asimovs Robotergeschichten, dem Terminator oder Mr. Data aus Star Trek inspirieren zu lassen. Ob eine Quelle der Inspiration mehr als tausend Seiten umfassen muss, ist jedoch Geschmackssache.

V

V


[1]  Ebers/Heinze/Krügel/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, C.H. Beck, München 2020.

[2]  http://www.roboterwelt.de/magazin/die-robotergesetze-von-isaac-asimov/ (zuletzt abgerufen am 10.12.2020).

[3]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[4]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[5]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[6]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[7]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[8]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 174ff.

[9]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[10]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[11]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[12]  Asimov, The Bicentennial Man, Ballantine Books, New York 1976.

[13]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[14]  Eichelberger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[15]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 963ff.

[16]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 963ff.

[17]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 964.

[18]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 964.

[19]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 964.

[20]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 965.

[21]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 966.

[22]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 966.

[23]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 968.

[24]  RADAR-iTE: Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos – islamistischer Terrorismus.

[25]  Ursprünglich zwecks Identifizierung und Verfolgung von Fluggästen eingeführt, die mit terroristischen Straftaten oder schwerer Kriminalität in Zusammenhang stehen könnten.

[26]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 968.

[27]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 968.

[28]  Sprenger, in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 972.

[29]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 986.

[30]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 986.

[31]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 986.

[32]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 986.

[33]  Sprenger in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 986.

[34]  Richtlinie (EU) 2016/1148 des Europäischen Parlaments und des Rates vom 6. Juli 2016 über Maßnahmen zur Gewährleistung eines hohen gemeinsamen Sicherheitsniveaus von Netz- und Informationssystemen in der Union.

[35]  Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 442ff.

[36]  Vgl. Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 444.

[37]  Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 456.

[38]  Eberstaller/Forgó inn: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 456.

[39]  Vgl. Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 199.

[40]  Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 455.

[41]  Eberstaller/Forgó in: Ebers/Heinze/Krügerl/Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik, S. 455.

 

Titelbild: © Romolo Tavani, Adobe Stock, Nr. 211657921