Ri 02/2018: Zurück in die Zukunft.

Ri 02/2018: Navigation

Ri 02/2018: Beitrag

Das dritte Ich:

Ist die „Schizophrenie“ künstlich intelligenter Systeme behandelbar?

Claudia Otto

A. Einleitende Worte

 

„We can only see a short distance ahead, but we can see plenty there that needs to be done.“

Alan M. Turing[1]

 

Wenn über die rechtliche Behandlung von künstlicher Intelligenz, v.a. derselben in verkörperter Form des Roboters, diskutiert wird, beschränken sich die Fragen und Antworten zumeist auf die dem Schaffungsprozess zeitlich nachgelagerte Problemstellungen, wie der rechtskonformen ethischen Entscheidungsfindung künstlich intelligenter Systeme in Dilemma-Situationen und der Verantwortlichkeit von Herstellern im Schadensfalle, insbesondere deren zivilrechtlicher Haftung. Die Entwicklung neuer Technologien soll nicht gehemmt werden. Nicht berücksichtigt wird in diesem Zusammenhang allerdings der Mangel des Wissens, was künstliche Intelligenz eigentlich ist; auch nicht ihre zwiespältige Natur, die hier mit der Metapher „Schizophrenie“ beschrieben wird. Diese unreflektierte juristische Herangehensweise ist besorgniserregend, insbesondere im Falle des Vorschlags, intelligenten Robotern eine eigene Rechtspersönlichkeit zuzuteilen. Von Freiwilligkeit gezeichnete, ethische Verhaltensgrundsätze bringen nicht viel, wenn ein ethisch hergestelltes Produkt ohne großen Aufwand unethisch eingesetzt werden kann. Ein Produkt, dass sich nach dem Inverkehrbringen in ungeahnte Richtung weiterentwickeln kann und dabei ungehindert auf gegenläufige Interessen, Böswilligkeit sowie das Konstrukt der menschlichen psychologischen Distanz trifft, kann dramatische Auswirkungen auf beteiligte und unbeteiligte Einzelpersonen, aber auch die Gesellschaft als Ganzes haben. Freiwillige Ethik verlangt im Falle künstlicher Intelligenz einen klaren Rechtsrahmen. Der Beitrag zeigt auf, warum regulatorische Prioritäten das Erfordernis der Begriffsklarheit und der jederzeitigen Nachvollziehbarkeit der Funktionsweise von künstlich intelligenten Systemen sein müssen.

___STEADY_PAYWALL___

 

Der nachstehende Beitrag wurde von der Autorin in gedrängter Form am 21. März 2018 als Impulsvortrag im Rahmen der 11. Sitzung der Arbeitsgruppe 4 „Rechtliche Rahmenbedingungen“ der Plattform Industrie 4.0 in der Hauptgeschäftsstelle des VDI in Düsseldorf referiert.

 

B. Eine dritte Rechtspersönlichkeit im Zivilrecht?

 

Die besorgniserregende juristische Herangehensweise offenbart sich insbesondere bei der aktuell heiß diskutierten Frage:

 

Sollten autonome Roboter eigene Rechte und Pflichten begründen können?[2]

 

Das Zivilrecht kennt zwei verschiedene Personen: Die natürliche Person – den Menschen – und die juristische Person, die – ohne Mensch zu sein – zahlreiche Menschen unter ihrem Dach vereinen kann und durch Verleihungsakt eine eigenständige, künstliche Rechtspersönlichkeit erhält. Rechtspersönlichkeit bedeutet sowohl für die natürliche als auch juristische Person, dass sie rechtsfähig ist, d.h. Trägerin von Rechten und Pflichten sein kann. Ohne natürliche Personen und damit Menschen sind juristische Personen jedoch denk-, willensbildungs-, und handlungsunfähig. Juristische Personen können daher nur rechtswirksam tätig werden, wenn dies eine natürliche Person für sie übernimmt. Ohne Menschen sind juristische Personen nur leere Gedankengebilde.

 

Das Europäische Parlament hat am 16. Februar 2017 eine Entschließung mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik veröffentlicht,[3] „in der Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz („KI“) anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen“.[4] Es fordert die Kommission aufgrund dieser und anderer Erwägungen auf, „langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügeltsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre, sowie möglicherweise die Anwendung einer elektronischen Persönlichkeit auf Fälle, in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren.“[5]

 

Neben die natürliche und die juristische Person soll also nach Ansicht des Europäischen Parlaments eine dritte, die sog. elektronische Person treten. Im Wesentlichen steht dahinter der ehrenwerte Gedanke der Entlastung von Geschädigten um die oft (zu) aufwändige Suche nach dem Schadensverantwortlichen und die Förderung angstfreier Innovation in Europa. Doch auch ohne die rechtswissenschaftlichen und ethischen Hintergründe vertiefen zu müssen, überzeugt diese Konstruktion denklogisch nicht:

Eine dritte Rechtspersönlichkeit zu konstruieren, die fast ausschließlich Pflichten aber kaum Rechte begründen soll, ist systemwidrig und wird langfristig Wertungswidersprüche und Rechtsunsicherheit schaffen. Die Forderungen an die Gesetzgeber sind abzusehen: Wer A sagt, muss auch B sagen. Menschenähnlich berechtigte Maschinen wären allerdings ein Widerspruch in sich, da diese von Menschen für menschlich bestimmte Zwecke entworfen, entwickelt und gebaut sowie eingesetzt werden. Rechte und Pflichten wie die einer natürlichen Person setzen Freiheit und freien Willen voraus: Maschinen werden jedoch einzig dafür geschaffen, dem Menschen zu dienen. Ein freier, ggf. dem Menschenwillen zuwiderlaufender eigener Wille ist dabei nicht vorgesehen. Sollen Maschinen menschenähnlich „eigene“ Entscheidungen mit „eigener“ und damit menschenähnlicher Rechtspersönlichkeit treffen dürfen, darf der Mensch diese nicht auf ihm allein nützliche Entscheidungsrechte beschränken. Maschinen sind aus Menschensicht auch nur so lange begehrte „Arbeitnehmer“, wie sie nicht widersprechen, kein Gehalt und keinen bezahlten Urlaub fordern. Die Nähe zum Tier, einem lebenden, beweglichen Organismus, der eine eigene Kraftquelle darstellt,[6] wird hier deutlich, weshalb überwiegend und wesentlich überzeugender auf eine entsprechende Anwendung der Rechtsvorschriften über die Haftung für Tiere im Verhältnis zum Menschen verwiesen wird.[7]

 

Eine Rechtspersönlichkeit ähnlich der juristischen Person ist sinn-, wenn nicht sogar denklogisch ausgeschlossen, weil in diesem Fall der Mensch notwendig ist, um die juristische Person mit Leben zu füllen. Nur durch ihn kann sie im Rechtsverkehr rechtswirksam handeln. Der autonome Roboter soll jedoch gerade den Menschen um die körperliche bzw. geistige Anwesenheit entlasten und ihn – wo möglich und wirtschaftlich sinnvoll -vertreten, oder zugespitzt formuliert: ersetzen. Im Grunde würde der Mensch in dieser Konstruktion entmenschlicht und zur leeren Hülse, die ohne den Roboter keinerlei Rechte und Pflichten begründen oder ausüben könnte.

 

Erfordernis und Bedürfnis nach einer eigenen Rechtspersönlichkeit für „intelligente“ Roboter bestehen daher schon aufgrund einer Außenbetrachtung nicht. Auch aus den Fähigkeiten von (manchen) Robotern ergibt sich kein Bedürfnis für die Schaffung einer eigenen Rechtspersönlichkeit: Die vom Europaparlament formulierten Anforderungen, 

 

  • die Fähigkeit, über Sensoren und/oder über den Datenaustausch mit seiner Umgebung (Interkonnektivität) Autonomie zu erlangen und diese Daten zu analysieren, 

  • die Fähigkeit, durch Erfahrung und Interaktion zu lernen,
  • die Form der physischen Unterstützung des Roboters und 

  • die Fähigkeit, sein Verhalten und seine Handlungen an seine Umgebung anzupassen,[8]

 

sind zu gering. Damit wäre auch ein moderner Staubsaugerroboter, unbestritten ein in diesem Sinne intelligenter, autonomer Roboter, ein Kandidat für die Erteilung von Rechtspersönlichkeit. Besonders ausgeklügelt ist er bereits dann, wenn er in die kleinwinkligsten Ecken eines Raumes gelangt.

 

Gegen die elektronische Person sprachen sich zahlreiche Experten, auch die Autorin, in einem offenen Brief aus.[9] Die Reihenfolge juristischer Problembefassung überzeugt nicht und führt zu fehlerhafter, in sich nicht stimmiger Argumentation.

 

Bevor die Frage:

 

Sollten autonome Roboter, i.e. künstlich intelligente Systeme eigene Rechte und Pflichten begründen können?

 

gestellt werden kann, muss zunächst geklärt werden,

 

Können autonome Roboter, i.e. künstlich intelligente Systeme denken (und mit dem Ziel handeln, eigene Rechte und Pflichten zu begründen)?

 

Diese Frage zu beantworten ist jedoch nicht einfach, ja sogar unmöglich, denn künstliche Intelligenz ist bis heute undefinierbar geblieben. An die Stelle ihrer Beantwortung treten daher menschliche Wünsche, vor allem romantische Vorstellungen einer besseren Welt, die wiederum die Antwort auf die Frage nach der eigenen Rechtspersönlichkeit begründen.

 

C. The Imitation Game oder die Frage: Was ist Künstliche Intelligenz?

 

Noch bevor der Begriff „Künstliche Intelligenz“ zum ersten Mal verwendet wurde, wurde sein Forschungsfeld abgesteckt.

Der Brite Alan M. Turing schlug im Oktober 1950 in „Computing Machinery and Intelligence“[10] mit seinem einleitenden Satz des ersten Abschnitts und dem Titel „The Imitation Game“ die (an dieser Stelle bereits bekannte) Frage

 

„Können Maschinen denken?“

 

vor, um aufzuzeigen, dass der übliche Sprachgebrauch der Worte „Maschine“ und „Denken“ in einem gemeinsamen, neuen Kontext zu absurden Ergebnissen führen würde. Anstatt eine Definition unter Verwendung von Worten zu formulieren, die bereits in ihrem unmittelbaren Zusammenwirken verwirren, sollte die Frage ersetzt werden durch eine andere, die klarer und ohne Deutungsschwierigkeiten beantwortet werden könne.

 

Zur Formulierung dieser leichter zu beantwortenden Frage skizzierte Turing eine spielgleiche Testsituation, bei der eine Vernehmungsperson einen Mann (A) und eine Frau (B) interviewen soll, wobei die Vernehmungsperson (C) Mann oder Frau sein könne und in einem Nebenraum, getrennt von A und B, Platz nimmt. Die Aufgabe der Vernehmungsperson ist herauszufinden, wer von den beiden Personen im anderen Raum Mann bzw. Frau ist, wobei sie nur die Bezeichnungen (Labels) X und Y kennt und am Ende des Tests bestimmen können soll: X ist A und Y ist B bzw. X ist B und Y ist A. Um die Bestimmung vornehmen zu können, soll die Vernehmungsperson Fragen stellen. Damit die Stimme von A bzw. B nicht verräterisch wirkt, soll die Kommunikation über ein Fernkommunikationsmittel oder einen Intermediär erfolgen. B soll der Vernehmungsperson helfen, am besten durch wahre Antworten. Selbst wenn sie sagen würde, „ich bin eine Frau, höre nicht auf ihn“, brächte es der Vernehmungsperson nichts, würde A dasselbe (wahrheitswidrig) behaupten.

 

Die ursprünglich gestellte Frage von Turing lautete nun zweierlei:

 

„Was passiert, wenn eine Maschine A’s Platz einnimmt?“

Wird die Vernehmungsperson sich genauso oft falsch entscheiden wie in der Situation, in der die Entscheidung zwischen Mann und Frau zu treffen ist?“

 

Der sog. Turing Test beschritt also einen theoretisch-pragmatischen Weg um die Frage zu beantworten, ob Maschinen denken können: Sie können denken, wenn sie vom Menschen nicht zu unterscheiden sind.[11]

 

I. Begriffsbestimmung

 

Künstliche Intelligenz ist ein unbestimmter Begriff, der vielseitig verwendet wird. Die Abkürzung KI wird daher in diesem Beitrag nicht verwendet, außer es liegt eine (halbwegs) konkrete Bedeutung vor.

 

1. Geschichtliche Entwicklung

 

John McCarthy soll nach dem Gros der Quellen 1956 den Begriff „Artificial Intelligence“ geprägt haben. Recherchiert man ein wenig genauer, erweist sich dies als nicht in Gänze korrekt. Tatsächlich findet sich ein „Proposal for the Darthmouth Summer Research Project on Artificial Intelligence“ vom 31. August 1955, in dem John McCarthy, Marvin L. Minsky, Nathaniel Rochester und Claude E. Shannon zur Teilnahme an einem zweimonatigen 10-Mann-Forschungsprojekt im Zeitraum vom 17. Juni bis zum 16. August 1956 aufrufen. Das auch Darthmouth Artifical Intelligence Conference[12] genannte Research Project gilt als die Geburtsstunde der „Artificial Intelligence“ als Forschungsgebiet:

 

„The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.“[13]

 

Die bereits mit „Artificial Intelligence“ betitelt ausgerufene Studie beruhte auf der Annahme, dass jeder Aspekt des Lernens sowie jedes andere Kennzeichen von Intelligenz im Prinzip so präzise beschrieben werden kann, dass eine Maschine diese simulieren kann. Künstliche Intelligenz war in jenem frühen Forschungsstadium also die Idee, insbesondere das Lernvermögen als Ausprägung menschlicher Intelligenz in Menschensprache zu beschreiben und diese in Maschinensprache zu übersetzen, um sie simulieren zu lassen.

Heute beschreiben „Artificial Intelligence“ und das deutsche Pendant „Künstliche Intelligenz“ zweierlei:

Zum einen ein Ziel, auf das hingearbeitet wird, zum anderen die Gesamtheit der Forschungs- und Entwicklungsvorhaben, die zu diesem Ziel hinführen sollen.[14]

 

Mit dieser Gleichbezeichnung von Weg und Ziel schafft man Verwirrung und Möglichkeiten für Geschäftemacher, die ein in ferner Zukunft liegendes Ziel als bereits realisiert anpreisen – schließlich hat man einen ersten Schritt auf dem Weg dahin bereits gemacht. Genauso schafft man Begeisterung für Technologien mit realistischem aber unattraktivem Schadpotential – Intelligenz ist schließlich ein positiv besetzter Begriff. Künstliche Dummheit ließe sich nicht verkaufen.

Nicht zuletzt kann man „künstliche Intelligenz“ als Beschreibung („künstlich“) einer Eigenschaft („Intelligenz“) beobachten, deren Konkretisierung man vermeiden möchte oder mangels Verständnis vermeiden muss.

 

2. Stilblüten des Definitionsmangels

 

Eine gängige Definition für Künstliche Intelligenz gibt es dementsprechend nicht. Der von stark schwankenden Stimmungen begleitete Begriff ist gefühlt in seiner Pubertät und kann auch von der gemeinen Presse nicht von Robotik, Machine Learning, Deep Learning etc. differenziert betrachtet werden. „Künstliche Intelligenz“ wird lediglich allgemein als Teilgebiet der Informatik verstanden und befasst sich mit Strukturen und Prozessen, die als typisch für intelligentes Verhalten betrachtet werden.[15]

 

Beschreiben kann man „Künstliche Intelligenz“ nach wohl relativ weit verbreiteter Meinung als

 

Das Ergebnis der Nutzung digitaler Technologie zur Erfüllung von Aufgaben, die der Intelligenz bedürfen.[16]

Die Anteile an der auf McCarthy et al. zurückgehenden Vorstellung von „Artificial Intelligence“ bleiben erkennbar. Doch schlauer ist damit niemand.

 

Der Mangel an Definierbarkeit und Befriedigung folgt der fehlenden einheitlichen Definition von (menschlicher) Intelligenz, an die „Artificial Intelligence“ originär anlehnt ist. Forscher sind sich uneins, was überhaupt Intelligenz ist und wie und welche Fähigkeiten, zu welchen Anteilen, Intelligenz bestimm- und messbar machen. Die Gesellschaft bestimmt zudem mit ihren stets im Wandel befindlichen Normen und Werten die als „intelligent“ wahrgenommenen Eigenschaften mit.[17] Was Intelligenz sein und woran man sie erkennen soll, wird bei der Verwendung des Begriffs „Intelligenz“ selten bis gar nicht unterschieden. Die – bis heute bestehende – Uneinigkeit der Experten über Intelligenz fasste Edwin G. Boring 1923 zusammen mit der Feststellung:

 

„Intelligence is what the test tests (…), until further scientific observation allows us to extend the definition .“[18]

 

Intelligenz ist was der Test testet, solange uns keine weitere wissenschaftliche Beobachtung zum Überdenken veranlasst. Intelligenz ist also nur ein Zirkelschluss.

 

Übertragen werden kann dieser „Maßstab“ natürlich auch auf die künstliche Intelligenz: Künstliche Intelligenz wäre dann, was der, ggf. jüngste, dem Lernen dienende Test testet. Zusammengefasst wurde der auch hier bestehende Mangel an Unterscheidung der Frage, was (künstliche) Intelligenz sein soll und woran man sie erkennen kann, von Roger Schank in dem Prinzip:

 

„Output ist alles, was wir bekommen.“[19]

 

Die „Testintelligenz“ bringt also genauso viel wie die Anforderungen der Gesellschaft an künstliche Intelligenz gering sind:

 

Die künstliche Intelligenz wird oft aus einem Erlebnis automatisierter Problemlösung geschlossen. Dabei ist nicht von Relevanz, ob das Ergebnis korrekt oder auch nur nützlich ist. Es ist auch ohne Bedeutung, ob tatsächlich ein von Menschenhand vorgezeichneter, regelbasierter Rechenprozess zugrunde liegt. Viele künstlich intelligente Prozesse werden im Alltag überhaupt nicht wahrgenommen,[20] so dass Unterscheidungswissen fehlt. Entscheidend für die Feststellung künstlicher Intelligenz im volksmundähnlichen Verständnis ist allein, dass ein Ergebnis in automatisierter Art und Weise zustande gekommen ist.

 

In diesem Fall wird auch von sog. schwacher KI gesprochen, die das primäre Ziel hat, konkrete Probleme zu lösen – egal wie.[21] Bei der sog. starken KI sieht man sich, visionär oder größenwahnsinnig, je nach Gusto, zu Höherem bestimmt, von der Erschaffung der denkbar leistungsfähigsten Rechner bis hin zur Nachbildung menschlicher Intelligenz.[22] Während die schwache KI an der Lösung vorbestimmter, konkreter Probleme arbeitet, soll die starke KI die Problemfindung und -lösung eigenständig vornehmen können.

 

Künstliche Intelligenz ist also auch ein schwammiger Leistungsbegriff,[23] der sich zwischen geringen Anforderungen (schwache KI) und hohen Erwartungen (starke KI) spannen lässt. Geht man noch einmal an den Anfang der Begriffsgeschichte zurück, in der das Proposal des Darthmouth Summer Projects 1956 die Fähigkeit zur Selbstverbesserung („Self-Improvement“) zum Forschungsthema erhob,[24] dürfte starke KI mit dem Ziel der Fähigkeit zur Problemerkennung und -behebung am ehesten an die originäre Idee und das Ziel des Forschungsgebiets Künstliche Intelligenz heranreichen.

 

3. Künstliche Intelligenz als wahrgenommenes Teilgebiet der Alchemie

 

„An important feature of a learning machine is that its teacher will often be very largely ignorant of quite what is going on inside, although he may still be able to some extent to predict his pupil’s behaviour.”[25]

 

Ein wesentliches Merkmal einer lernenden Maschine ist nach Alan M. Turing jenes, dass der Lehrer oft überaus ignorant gegenüber den inneren Abläufen sein wird, auch wenn er bis zu einem gewissen Grad in der Lage sein wird, das Verhalten seines Schülers vorherzusagen.

 

Tatsächlich ist die oft mit den Begriffen „Black Box“ oder „Hidden Layer“ beschriebene Verborgenheit der (meisten) algorithmischen Abläufe ein Merkmal von selbstlernenden Maschinen. Maschinenlernen (ML) wird überwiegend als Teilgebiet Künstlicher Intelligenz (AI) angesehen und beschreibt die Entwicklung von digitalen Systemen, die ihre Performanz in Bezug auf eine bestimmte Aufgabe durch Lernerfahrung verbessern.[26]

 

Doch die Entwicklungen zeigen, dass die aus der, auch von atemberaubenden Fortschritten geförderten, Ignoranz folgende Unerklärbarkeit der Vorgänge im Inneren ein bedrohliches und in Folge der mangelnden Kontrollierbarkeit zerstörerisches Potential entfalten kann. Die menschliche Unkenntnis ist kein qualifizierendes Merkmal von selbstlernenden Maschinen bzw. künstlicher Intelligenz, d.h. aus der Unkenntnis der innewohnenden Abläufe folgt nicht die Qualifizierung als ML. Sie wird – auf lange Sicht zu unserem Leidwesen – nur akzeptiert.

 

Ali Rahimi, einem Forscher im Bereich Künstliche Intelligenz bei Google in San Francisco beschreibt die Situation wie folgt:

 

„We produce stunningly impressive results: Self-driving cars seem to be around the corner, artificial intelligence tags faces in photos, transcribes voicemails, translates documents, and feeds us ads. Billion-dollar companies are built on machine learning. In many ways, we’re in a better spot than we were 10 years ago. In some ways, we’re in a worse spot.

There’s a self-congratulatory feeling in the air. We say things like “machine learning is the new electricity”. I’d like to offer an alternative metaphor: machine learning has become alchemy.

Alchemy’s ok. Alchemy’s not bad. There’s a place for alchemy. Alchemy worked.

Alchemists invented metallurgy, ways to make medication, dying techniques for textiles, and our modern glass-making processes.

Then again, alchemists also believed they could transmute base metals into gold and that leeches were a fine way to cure diseases. To reach the sea change in our understanding of the universe that the physics and chemistry of the 1700s ushered in, most of the theories alchemists developed had to be abandoned.

If you’re building photo sharing services, alchemy is fine. But we’re now building systems that govern health care and our participation in civil debate. I would like to live in a world whose systems are build on rigorous, reliable, verifiable knowledge, and not on alchemy.“[27]

 

Wir leben in einer Welt, in der uns künstliche Intelligenz beeindruckende Ergebnisse liefert und unser Leben erleichtert mit der Entlastung um Foto-Tagging, Voicemail-Transkription, Übersetzungsarbeit und unpassende Werbung[28] durch Milliarden-Unternehmen, die ihr Geschäft auf ML aufgebaut haben. In vielerlei Hinsicht sind wir besser gestellt als vor 10 Jahren – aber eben auch schlechter. Wir beglückwünschen uns selbst zu „ML als die neue Elektrizität“. Doch ML ist vielmehr der Alchemie vergleichbar geworden.

 

Alchemie hat viel Gutes für den Menschen hervorgebracht, unbestritten. Doch Alchemisten haben auch Theorien entwickelt, die heute mit der Homöopathie vergleichbar sind und vielmehr schaden als nützen. Wenn man Systeme zur Förderung von Gesundheit und Wahrnehmung von Bürgerrechten wie etwa dem Wahlrecht aufbaut, sollten diese auf belastbarem Wissen basieren, nicht auf Alchemie.

 

4. Die Verwendung des Begriffs in diesem Beitrag

 

 „Künstliche Intelligenz“ sollte nicht über- aber auch nicht unterschätzt werden. Zu vage und zugleich bedeutungsschwanger ist sie, zu verzerrt ihre Vorstellung durch Science-Fiction-Literatur, zu zersplittert verstanden und von konkurrierenden Interessen konträr verwendet. Beständige und schützende Gesetze darf man auf einem unberechenbaren, gar treibsandartigen Boden wie dem der „Künstlichen Intelligenz“ nicht bauen. In diesem Beitrag soll daher „künstliche Intelligenz“ als (Ziel-)Produkt mit der Fähigkeit zur eigenständigen Problemerkennung und -lösung verstanden werden, da diese notwendigerweise die Selbstverbesserung beinhaltet. „Künstliche Intelligenz“ soll das Forschungsgebiet bezeichnen.

 

II. Der intelligente Agent

 

Vornehmliches Ziel Künstlicher Intelligenz ist die Herstellung eines intelligenten Agenten, i.e. im Allgemeinen eines Roboters.[29] Dabei meint ein intelligenter bzw. rationaler Agent einen vernünftigen Agenten. Ein vernünftiger Agent ist derjenige, der aufgrund seiner Beobachtungsfolge und seines Vorwissens über die Umgebung stets die optimale Aktion bzgl. des Performanzmaßes wählt.[30] Die Umstände und Interaktionen mit der Umwelt erschöpfend vorauszudenken sowie sämtliche Handlungsoptionen und Anforderungen an das jeweilige Optimum zu programmieren ist extrem aufwändig bis nicht möglich. Intelligente Agenten müssen daher eigenständig (autonom) Informationen suchen, speichern und verarbeiten. Sie müssen dabei jedoch nicht notwendigerweise mit der physikalischen Umwelt interagieren; reine Softwareagenten kommen etwa vermittelnd im Rahmen der Interaktion von Mensch und Computer zum Einsatz, sog. Interface-Agenten.

 

III. Kann die Frage nach der Denkfähigkeit beantwortet werden?

 

Die von Turing aufgeworfene Frage, ob Maschinen denken können, welche sich in der von der Autorin gestellten Kon­trollfrage wiederspiegelt:

 

Können autonome Roboter, i.e. künstlich intelligente Systeme denken (und mit dem Ziel handeln, eigene Rechte und Pflichten zu begründen)?

 

kann noch immer nicht beantwortet werden. Auch sie muss ersetzt werden durch andere Fragen. Fragen, die sich aus konkreten Situationen heraus ergeben.

 

D. Die „Schizophrenie“ künstlich intelligenter Systeme

 

Um Künstliche Intelligenz nicht erklären zu müssen, diese aber greifbarer zu machen, werden gerne Metaphern verwendet.[31] Meist dienen diese dem Zweck des Interessantmachens, eher weniger dem Zweck des Aufrüttelns, wie im Falle der von Rahimi gewählten Metapher „Alchemie“. Die hier gewählte „Schizophrenie“ wird ebenfalls mit dem Ziel des Aufweckens verwendet und nachstehend erklärt.

 

I. Die einseitige Idealvorstellung von der „guten“ Künstlichen Intelligenz

 

Wenn von Künstlicher Intelligenz gesprochen und über sie geschrieben wird, geht es zumeist um Fortschritte im Hinblick auf die Unterstützung des Menschen, also um ein nütz­liches, positiv besetztes Ziel. Presseberichte, Produktwerbung und Veranstaltungen generieren dabei Erwartungen, die weit über die Realität hinausschießen. Sie beruhen oft auf der Verallgemeinerung erbrachter, grundsätzlich auch dem Menschen möglicher Einzelleistungen von Computern, ohne die komplexen Fähigkeiten des Menschen zu übertreffen. Manchmal beruhen sie einfach auf einer verzerrten Darstellung. Vermutet wird unter Experten, dass etwa 50 Jahre vergehen müssen, bis künstliche Intelligenz an die menschliche, viel komplexere Intelligenz heranreicht.[32] Die Menschenleistungen übertreffenden Fortschritte finden daher lediglich schrittweise und nur in Teilbereichen, v.a. mit aufgrund endlicher Konstellationen und Handlungsoptionen begrenztem Entscheidungsspielraum wie Schach[33] oder Go[34], statt. Auch hier geht es um positiv besetzte Lösungen wie Gewinn, Optimierung und Zeitersparnis.

 

Doch lässt sich in der Gegenläufigkeit der Spielerinteressen nicht auch das Ziel des „Niederwerfens“ einer anderen Person erkennen? Ist dieses Ziel „gut“?

 

II. Die nützlich-schädliche Künstliche Intelligenz

 

1. Künstliche Intelligenz im militärischen Bereich

 

Ausgeblendet werden regelmäßig Vorstöße in der Künstlichen Intelligenz im militärischen Bereich, wo es primär um negativ besetzte Ziele wie die Schädigung des Gegners, insbesondere die Tötung von Menschen geht.[35] Lediglich in der journalistischen Peripherie tauchen, somit wenig bemerkt und diskutiert, ethische Fragen im Hinblick auf autonome Waffensysteme auf.[36] Nützlichkeit und Unterstützungsfunktion sind bei autonomen Waffensystemen eher sekundär, im Hinblick auf Verteidigungsstrategien diametral entgegengesetzt aufseiten des Anwenders.

 

Denn im Krieg sucht jeder den anderen durch physische Gewalt zur Erfüllung seines Willens zu zwingen; sein nächster Zweck ist, den Gegner niederzuwerfen und dadurch zu jedem ferneren Widerstand unfähig zu machen.[37] Der Krieg ist also ein Akt der Gewalt, um den Gegner zur Erfüllung unseres Willens zu zwingen.[38] Um diesen Zweck sicher zu erreichen, müssen wir den Feind wehrlos machen, und dies ist dem Begriff nach das eigentliche Ziel der kriegerischen Handlung.[39] Das Mittel, um diesen Zweck zu erreichen, ist die physische Gewalt.[40]

 

Dabei soll hier nicht darüber hinweggegangen werden, dass es selbstverständlich auch physisch gewaltfreie Mittel wie z.B. die List gibt.[41] Strategien der Kriegsführung sind vielfältig und situationsbezogen, die Grundmotive bleiben jedoch gleich. Die Grundmotive des Krieges sind das Verursachen von Schaden (Angriff) und das Vermeiden von Schaden (Verteidigung), welche sich in den wesentlichen Grundhandlungen, Erkennen und Schaden sowie Täuschen und Schützen wiederspiegeln.[42]

Zur Verdeutlichung der Grundmotive des Krieges und ihrer Realisierung in künstlich intelligenten Systemen kann auf die vielseitig einsetzbare Drohne verwiesen werden: Sie kann friedliche wie auch feindliche Targets „erkennen“ und, etwa durch eingebaute Schussvorrichtung, ausschalten. Sie kann jedoch genauso als Attrappe oder Späher agieren um das Target in eine Falle hinein zu täuschen, aber auch um zu schützen.

 

2. Die duale, polarisierende Natur im Spannungsfeld des humanitären Völkerrechts

 

Künstlicher Intelligenz kommt also keine per se gute oder schlechte, sondern eine duale, gar polarisierende Natur zu, die aus der dualen Nutzungsmöglichkeit der Technologie(n) und technologischen Möglichkeiten herrührt. Ein und dasselbe künstlich intelligente System kann sowohl nützlich als auch schädlich eingesetzt werden; nützlich bzw. schädlich werden dabei einseitig und strategiebezogen definiert. Für die schädigungswillige Partei ist eine entsprechende Technologie nützlich, für die betroffene Gegenpartei eben schädlich. Zumeist ist, wird und soll der Unterschied nicht klar erkennbar sein, nämlich dann, wenn die wahre Inten­tion, Schaden, durch den Anschein des Nutzens zielgerichtet verschleiert wird.

 

Im 12. Clausewitz-Strategiegespräch am 18. April 2018 wurde des Weiteren die Problematik der Wechselwirkung zwischen zwei Algorithmen diskutiert, die sich gegenseitig belauern, aber auch gegenseitig aufschaukeln bzw. aufstacheln können. Die Forscher forderten, dass die menschliche Kon­trolle über die Entscheidungszyklen sichergestellt werden muss; die Verfügungsgewalt über autonome Waffen muss bei Menschen bleiben, die völkerrechtliche Verantwortung übernehmen.[43]

 

Im Lichte der Rechtslage, dass Zivilbevölkerung und Zivilpersonen gemäß Art. 48, 51 Abs. 1 S. 1, Abs. 2 S. 1, 57 des Zusatzprotokolls I zum Genfer Abkommen von 1949 (ZP I)[44] und gem. Art. 13 Abs. 1 S. 1 und Abs. 2 S. 1 des Zusatzprotokolls II zum Genfer Abkommen von 1949 (ZP II)[45] nicht Ziel von militärischen Angriffen sein dürfen, während zu ihrem Schutze eine Computernetzwerkoperation (dies entspricht einem Hackingangriff i.R. einer militärischen Operation),[46] die sich nicht als Gewaltanwendung darstellt oder auf gewaltsame Auswirkungen abzielt, sehr wohl eingesetzt werden kann, offenbart sich auch die Polarität und Gefahr von Künstlicher Intelligenz im Einsatz für und gegen die Zivilbevölkerung:

 

Wie sollen autonome Waffensysteme einen Menschen oder eine Zivilpersonengruppe zuverlässig identifizieren und sicher von zulässigen Angriffszielen (etwa Terroristen, Soldaten) unterscheiden? Woran sollen autonome Waffensysteme sicher erkennen, dass die Handlung eines Zivilisten eine unmittelbare Teilnahme an Feindseligkeiten ist (vgl. Art. 13 Abs. 3 ZP II)? Die reine Schutzhandlung einer Zivilperson zugunsten schwächerer Zivilisten (etwa von Kindern) kann selbst für Menschen auf den ersten Blick als feindselige Kampfhandlung erscheinen; wie soll demgegenüber ein künstlich intelligentes Waffensystem im Einklang mit dem humanitären Völkerrecht entscheiden? Wenn Menschen sich durch Verkleidung und Beschmutzung täuschen lassen können, wie soll dann künstliche Intelligenz derartige Täuschungen entlarven? Selbst ein minimal verändertes Verkehrsschild kann, jedenfalls nach dem aktuellen Stand der Technik, von einem autonomen Fahrzeug nicht mehr korrekt erkannt und verarbeitet werden, während ein Mensch die originäre behördliche Handlungsanordnung problemlos versteht und umsetzen kann.[47] Wie identifiziert dann ein autonomes Waffensystem den feindseligen Nicht-Zivilisten innerhalb einer (überwiegend) zivilen Menschenmenge? Wie soll sichergestellt werden, dass ein den Zivilistenschutz verfolgender Hackingangriff nicht zum Schaden derselben fehlgeht, weil das System schlichtweg eine Black Box ist?

 

3. Eine eigene Rechtspersönlichkeit für Roboter wäre der Anfang vom Ende

 

Das Europäische Parlament forderte die Kommission in vorgenannter Entschließung auf, „den ausgeklügeltsten autonomen Robotern“, wobei es „autonom“ als „Fähigkeit, eine fundierte, ungezwungene Entscheidung über die Bedingungen der Interaktion mit Robotern“ definiert,[48] eine (elektronische) Rechtspersönlichkeit in den Fällen zuzuteilen, in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren und hierbei Schaden verursachen.[49] Natürlich beabsichtigt das Europäische Parlament nicht unmittelbar, autonomen Waffensystemen und sonstigen Kriegsrobotern Rechtspersönlichkeit zuzuerkennen. Doch würde eine elektronische Person wie gefordert geschaffen, entstünden, unter Verweis auf die Möglichkeit des Bestehens eines Amtshaftungsanspruchs, nicht mehr aufzulösende, fürchterliche Widersprüche zum humanitären Völkerrecht.[50] Die gefährlich­sten, ausgeklügeltsten Roboter müssten zwecks Auflösung derselben mit eigener Rechtspersönlichkeit auftreten, für deren Handlungen konsequenterweise auch kein Mensch völkerrechtlich zur Verantwortung gezogen werden könnte. Die innewohnende Senkung der Hemmschwelle und Anreizwirkung wäre fatal für die globale Sicherheitslage.

 

Die Absicht der Verschiebung von Verantwortlichkeit für Schäden auf künstlich intelligente Systeme erscheint, ungeachtet ihrer innewohnenden Unterstützungsintention, tatsächlich als der erste Schritt in die Menschheitskatastrophe, die der Physiker und Astrophysiker Stephen Hawking vorhergesagt hat.[51]

 

III. Die „Schizophrenie“ als Metapher zur Beschreibung der Problematik von Künstlicher Intelligenz

 

Natürlich kann Künstliche Intelligenz, die im Kern nur eine vom durch den Menschen vorgegebenen Einsatzzweck begrenzte Gesamtheit von Rechenprozessen ist, keine menschliche Erkrankung erleiden. Ihr fehlt es an Menschlichkeit und, jedenfalls derzeit und in naher Zukunft, an Vergleichbarkeit zum Menschen als natürliche Person, die Trägerin von Rechten und Pflichten ist. Dennoch ist dieser Begriff hervorragend geeignet, um den der Künstlichen Intelligenz innewohnenden und oft missverstandenen Gegensatz begreifbar zu machen:

 

„Schizophrenie wird fälschlicherweise oft mit Persönlichkeitsspaltung in Verbindung gebracht, so als ob ein an Schizophrenie Erkrankter mehrere Persönlichkeiten in sich tragen würde. Dem ist keinesfalls so. Schizophrenie hat auch nichts mit verminderter Intelligenz zu tun. Zwar mag sich ein akut Erkrankter für einen Außenstehenden scheinbar unsinnig verhalten, die schwer verstehbaren Handlungen entspringen jedoch keinem Verlust der Intelligenz, sondern sind das Produkt von Fehlwahrnehmungen und Fehlinterpretationen der Umwelt.“[52]

 

Oberflächlich kann auch ein künstlich intelligentes System in der Interaktion mit dem Menschen unsinnig und unverständlich erscheinen, so, als würde sie zwei Persönlichkeiten in sich tragen. Am Beispiel des „Show Robot“[53] „Sophia“ lässt sich dies sehr gut erkennen.[54] In einem Interview zusammen mit „ihrem“ Erschaffer Dr. David Hanson, CEO von Hanson Robotics, auf CNBC Anfang 2016,[55] wird „sie“ von ihm gefragt:

 

„Sophia, do you want to destroy humans? Please say no.“

 

Daraufhin antwortet „sie“:

 

„Ok, I will destroy humans.“

 

Während er peinlich berührt reagiert, strahlt “sie” über das ganze Gesicht und scheint sich zu freuen. Was ist hier passiert?

Tatsächlich liegt hier eine Fehlwahrnehmung und Fehlinterpretation der Umwelt sowie der in ihr enthaltenen Informationen vor, die per se nicht bedrohlich sind, die mancher jedoch nach „Sophias“ Verarbeitung und Ausgabe in Worten als bedrohlich empfinden kann. Worten, die „sie“ ihrer Bedeutung nach offensichtlich nicht versteht. „Sophia“ lacht sodann, aber nicht, weil „sie“ das Wiedergegebene amüsant findet, sondern weil die Menschen um „sie“ herum lachen. „Sie“ nimmt dies über die Kameras in „ihren Augen“ wahr. Die Reaktion des Lachens ist von ihrem Erschaffer vorgegeben und könnte etwa gekürzt formuliert werden als Befehl: Wenn die Menschen lachen, dann lache. „Sophia“ vermag jedoch offensichtlich nicht zu erkennen, warum gelacht wird. Der Mensch lacht unter Umständen auch aus Unsicherheit oder in Konfliktsituationen scheinbar der Situation unangemessen, etwa im Rahmen einer sog. Übersprungshandlung[56] in Verbindung mit einem unangenehmen Schamgefühl. Im Falle des Dr. Hanson vermögen Menschen seine auftretenden Emotionen relativ gut einzuschätzen. Er läuft rot an und lacht; dabei wiederholt er „No! I take it back!“. Offenbar eine unangenehme Situation, ein Konflikt, dessen Spannung er durch das Lachen abbaut. Seine Reaktion ist erkenn- und nachvollziehbar, „Sophias“ Reaktion dagegen jedoch nicht und daher völlig unsinnig. Ein – gesunder – Mensch hätte wohl eher gestutzt, Anzeichen der Verunsicherung gezeigt und mit einer Rückfrage geantwortet, etwa: „Habe ich etwas Falsches gesagt?“.

 

Ist „Sophia“, der Roboter, nun böse? Hat „sie“ eine gespaltene Persönlichkeit? Wird „Sophia“ die Menschheit zerstören, weil sie diese Information ausgibt? Wohl kaum; „sie“ hat die ausgegebene, ausgesprochene Information nicht einmal verstanden. Wird „Sophia“ als bedrohlich wahrgenommen? Ja, durchaus.[57] Hierzu dürfte auch der gewollte Anschein von Menschlichkeit beitragen. Von etwas, das weiblich[58] und lieblich, etwa durch das Kindchenschema[59], erscheint, erwarten wir keine Gefahr. Gefahr steckt jedoch regelmäßig in der Täuschung des Menschen. Auch durch die Menschenähnlichkeit des Roboters wird der Mensch getäuscht, wenn auch im Falle „Sophia“ die Entwicklung „täuschender Echtheit“ langfristig die Unterstützung des Menschen, z.B. in der Pflege, zum Ziel haben soll.[60] Die Täuschung erlangt hierdurch eine neue Ebene der Einwirkung auf Menschen. Denn auch wenn den mit „ihr“ interagierenden Menschen bewusst ist, dass „Sophia“ keine echte Frau ist, so verhalten sie sich „ihr“ gegenüber doch bisweilen so, als sei sie es.[61] Sie wissen es besser, doch sie verstehen noch nicht in Gänze, dieses neue Wissen anzuwenden.[62] Menschen sind eben Gewohnheitstiere.

 

Am Beispiel „Sophia“ zeigt sich auch, dass Künstliche Intelligenz nicht unintelligent oder gar defekt ist. Ähnlich wie ein Mensch, der an Schizophrenie erkrankt ist, verhält „sie“ sich scheinbar unsinnig, weil die Informationen aus der Umwelt, dies umfasst auch die gesprochenen Worte, aufgrund begrenzt verfügbaren Erfahrungen anders interpretiert und entsprechend „falsch“ verarbeitet wurden. Dr. Hanson hat diese konkrete Situation nicht vorab erkannt und vorbereitet, z.B. durch ein „Sophia“ vermitteltes Verständnis von Sprach­inhalten[63] oder die Unterscheidung der verschiedenen Arten von Lachen, etwa durch wertende Einbeziehung von hiermit in Verbindung auftretenden körpersprachlichen Signalen wie Rotwerden und Blickabwenden. Der gewöhnliche Beobachter des Geschehens hingegen wendet sein während seines gesamten Lebens erlerntes Wissen an. Das enthält – im Normalfall – keine Erfahrung mit Dingen wie „Sophia“, vielmehr im Umgang mit anderen Menschen, denen sie ähnlich sein soll. Die Reaktion „Sophias“ überrascht daher die Gesprächsteilnehmer sichtlich und hörbar. Menschen fasziniert, was sie nicht erfassen können. Menschen verängstigt aber auch, was sie nicht erfassen und somit nicht kontrollieren können.

 

Ein künstlich intelligentes System dagegen kann Angst nicht empfinden, vermag im Gegensatz zum Menschen zudem nicht zu unterscheiden, was richtig und was falsch ist im Kontext der überwiegend ungeschriebenen, lebenslang gelernten Normen menschlichen (und tierischen) Zusammenlebens. Ihre Ambivalenz, ihre Nützlich- wie auch Schädlichkeit, zeigt sich insbesondere an den o.g. Beispielen aus der Kriegsführung, an die „Sophia“ verbal anknüpft. Künstlich erzeugte Irritation erschwert die Entscheidung des Adressaten einer von künstlicher Intelligenz gestützten Aktion zur richtigen Reaktion und kann bisweilen tödlich sein. Daher stellt sich die Frage, ob es in der Konsequenz reicht, die Einflüsse, und damit sämtliche Umwelteinflüsse zu kontrollieren bzw. zu regulieren, damit – ggf. von Dritten – gewünschte Fehlwahrnehmungen und Fehlinterpretationen zu keinen unerwünschten Lern- und Schadensergebnissen führen.

 

IV. Das Problem der sog. psychologischen Distanz[64]

 

Doch nicht nur ambivalente Technologie ist schwer zu kontrollieren und zu regulieren. Die sog. psychologische Distanz tritt hinzu und schafft eine Variable, die v.a. unter den Aspekten der Täuschung, des Missbrauchs und der Ausnutzung zu berücksichtigen ist.

 

Psychologisch distanzierte Dinge (Objekte, Geschehen) sind solche, die nicht der unmittelbar erlebten Realität angehören.[65] Sie können gedacht, konstruiert, wiederaufgerufen, aber nicht direkt wahrgenommen werden. Gründe für die mangelnde Wahrnehmung können sein, dass der jeweilige Gegenstand der Vergangenheit oder Zukunft zuzuordnen ist, unzugänglich und z.B. anderweitig räumlich gelegen ist, der Wahrnehmung und Empfindung anderer Menschen entstammt oder hypothetisch als Alternative zur Realität hätte eintreten können.[66] Diese individuellen, alternativen Realitäten zur erlebten sind vierdimensional: Es gibt die zeitliche, die räumliche, die soziale und die auf rein hypothetischer Alternativität beruhende Dimension psychologischer Distanz. Diese vier Dimensionen bilden ein mentales Konstrukt, kein Ergebnis unmittelbarer Wahrnehmung.[67] In der Folge mangelnden Wissens wird abstrahiert. Annahmen und Bewertungen werden im Rahmen der Abstraktion beispielsweise von eigenen Emotionen und Erinnerungen abgeleitet und auf andere Menschen projiziert. Schemata erleichtern zudem das Einordnen komplexer Situationen. Befehle sowie An- und Vorgaben Dritter können ebenso die Wahrnehmung von Dingen als real oder nicht real beeinflussen.

Wie würde der durchschnittliche Mensch reagieren, wenn auf seinem Bildschirm ein Fenster mit der Meldung „I will destroy humans“ auftauchte? Er würde, zumindest im besten Falle, Schadsoftware vermuten und seinen Rechner mittels Antivirenprogramm überprüfen. Aber viel mehr als das würde ihm wohl nicht in den Sinn kommen, erst recht keine Gefahr für Leib und Leben, die oft bei dem Missbrauch von fremden Identitäten beginnt. Schließlich sind keine Schäden sichtbar oder ertastbar. Veränderungen sind nicht sinnlich wahrnehmbar und emotional ist ebenfalls nicht zu erfassen, was in den Schaltkreisen des Rechners gerade passiert. Genauso wie sich die Angst als negative Emotion aufgrund dieser durch Mangel an sinnlicher Wahrnehmung von Gefahrenmomenten vermittelten psychologischen Distanz in Grenzen hält, halten sich auch Angst und Schuldgefühle des etwaigen Angreifers in Grenzen. Für die Person, die mittelbar oder unmittelbar die Kontrolle über das Gerät übernommen hat, ist es im Wesentlichen nicht mehr als ein die Lebensumstände stark abstrahierendes Computerspiel. Dieses „Phänomen“ der psychologischen Distanz ist im hiesigen Zusammenhang wesentlich zu nennen: Die künstlich erzeugte psychologische Distanz zum tatsächlichen Schadensgeschehen kann die Schadenszufügung (ggf. auf Befehl) erheblich erleichtern und gleichzeitig, durch das Unmöglichmachen von Schutzreaktionen, verschlimmern.[68] Genauso kann die fehlende sinnliche Wahrnehmung einer allgemeinen Bedrohungslage zu einer unbewussten Gefahrenaussetzung der eigenen Person, Schutzbefohlener und wirtschaftlichen Existenz führen.

 

„Sophia“ ist in „ihrer“ Menschenähnlichkeit und den recht ausgereiften Interaktionsfähigkeiten ein Beispiel für die künstlich erzeugte Ablenkung von der Realität, immer weniger spürbar für die Interagierenden. Auch Alexa und vergleichbare Home Assistenten werden vorrangig als nützlich, nicht jedoch als bedrohlich für die Privatsphäre wahrgenommen. Warum? Weil es leicht und direkt erlebbar ist, Musik auf Sprachbefehl abzurufen, hingegen aufwändig und v.a. für den Verbraucher nicht unmittelbar nachprüfbar, welche Datenströme wann warum zwischen Gerät und Amazon stattfinden. Virtual Reality geht über dieses Erleben einer künstlichen Realität noch einmal weit hinaus, welches Menschen nicht weniger in den Bann zieht. Denkt man das Konstrukt psychologischer Distanz weiter und erlaubt Künstlicher Intelligenz die Schaffung hypothetischer, alternativer Realitäten, setzen Menschen andere Menschen unter Umständen nicht vorstellbaren Gefahren aus. Schließlich können die Zielpersonen nicht unmittelbar erlebte Dinge nicht in ihre Wahrnehmung einschließen und ihr Handeln hiernach ausrichten. Sie werden so manipulierbar, gar fernsteuerbar.

Dass auch der eigene Rechner durch die Vernetzung über das Internet die Sicherheitslage für Menschen, Unternehmen und Staat bedrohen könnte, das ist den meisten – verständlicherweise – mangels unmittelbarer Wahrnehmung nicht bewusst. Was nicht erlebbar und auch mangels Erfahrung kaum vorstellbar ist,  kann schwerlich als reale Gefahr wahrgenommen werden. Doch der Rechner, der in Teilen künstliche Intelligenz nutzt oder nutzen kann, wird im seltensten Fall einen eigenen Willen, von einer dem Menschen ähnlichen Rechtspersönlichkeit getragen, entwickeln; vielmehr werden Dritte die Kontrolle übernommen haben.

 

V. Der Wettlauf zwischen „Gut“ und „Böse“

 

Die heutigen und morgigen Möglichkeiten von Künstlicher Intelligenz sind, entgegen Presseberichten, Unternehmenswerbung und Meinungsäußerungen, eben nicht nur sehr nützliche, sondern auch sehr schädliche Fortschritte. Die feindliche Nutzung von Künstlicher Intelligenz wird mit der Nutzung von nützlicher künstlicher Intelligenz steigen. Kann die Technologie beide Interessen befriedigend bedienen, tritt die oben beschriebene besondere Gefahrensituation ein. Militärische Interessen haben nicht nur die Menschheitsgeschichte entscheidend mitgeschrieben, sondern werden auch die Zukunft der Menschen mitbestimmen. Krieg ist und bleibt die Fortsetzung von Politik mit anderen Mitteln.[69] Gegenläufige Interessen, ob wirtschaftlicher oder militärischer Prägung, befinden sich konstant in einem Wettlauf, insbesondere im Bereich der IT-Cybersecurity. Alle Prozesse in Bezug auf Künstliche Intelligenz, vom Design bis hin zur Verwaltung der digitalen und vor allem digitalisierten kritischen Infrastrukturen, werden immer mehr defensiv erfolgen müssen. Menschen, Unternehmen wie Staaten sind durch die Digitalisierung vulnerabler geworden.

 

E. Ist die „Schizophrenie“ künstlich intelligenter Systeme behandelbar?

 

I. Die „Schizophrenie“ von Künstlicher Intelligenz ist un- heilbar: sie ist systemimmanent.

 

Die Anlehnung der Beschreibung an die menschliche Neuropsychologie geht auf die Neurophysiologie und die Entwicklung künstlich neuronaler Netze (KNN) zurück. Künstlich neuronale Netze lassen ein schier undenkbares Entwicklungspotential vermuten, schaut man sich die natürlichen, biologischen Grundlagen an. Ein schier undenkbares Entwicklungspotential schließt jedoch auch unerwünschte Entwicklungen ein, die nicht einmal fehlerhaft sein müssen. Entscheidend und als „Schizophrenie“ beschrieben herausgehoben ist die Ambivalenz von künstlich intelligenten Systemen: Sie können, je nach Input und Gewichtung der Lerninhalte, nützlich bzw. friedlich wie feindlich genutzt werden. Der Missbrauch dieser fortschrittlichen Technologie ist das eigentliche Problem und bleibt einer dauerhaft lernenden künstlichen „Lebensform“ immer immanent.

 

1. “What fires together, wires together” oder die Hebb’sche Lernregel

 

Ein biologisch neuronales Netz ist ein Nervensystem bestehend aus etwa 10^13[70] Nervenzellen, die miteinander vernetzt sind.

 

Nervenzellen, i.e. Neuronen, sind bei Vielzellern auf die Weiterleitung von Erregungen spezialisierte Zellen. Sie empfangen Signale und geben neue, von ihnen erzeugte Signale weiter. Dendriten, das sind Fortsätze des Neurons, sammeln die von anderen Nervenzellen eingehenden Informationen an spezifischen Kontaktstellen, den sog. Synapsen, ein. Das Axon, wovon jede Nervenzelle höchstens eines innehat, leitet die Ausgabeinformation an andere Neuronen weiter.[71]

 

What fires together, wires together[72] entstammt nicht der Feder des kanadischen Psychologen Donald Olding Hebb, dem Begründer und Namensgeber der sog. Hebb‘schen Lernregel, sondern einer Neurowissenschaftlerin an der Stanford University, Carla Jo Shatz. Hebb beschrieb die hier reimartig zusammengefasste neuronale Grundlage von Lernen und Gedächtnis in einem etwas ausführlicheren, aber einfachen Prinzip:

 

„When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased”.[73]

 

„Wenn ein Axon der Zelle A … Zelle B erregt und wiederholt und dauerhaft zur Erzeugung von Aktionspotentialen in Zelle B beiträgt, so resultiert dies in Wachstumsprozessen oder metabolischen Veränderungen in einer oder in beiden Zellen, die bewirken, dass die Effizienz von Zelle A in Bezug auf die Erzeugung eines Aktionspotentials in B größer wird.“[74]

 

Was in dem bekannteren kurzen Zitat abhanden kommt, ist die Information, dass nach Hebb Kausalität bzw. Ursächlichkeit und Beständigkeit für die Effizienz der Neuronenverbindung wesentlich sind. Zwei gleichzeitig „feuernde“ Neuronen können kein (Re-)Aktionspotential im anderen Neuron auslösen. Es gäbe keine Auslöser, sondern nur Zufallsmomente. Die erforderliche Beständigkeit würde eine Häufung von Zufällen erforderlich machen. Lernen wäre damit nahezu ausgeschlossen.

 

Neuronale Netze entstehen also nicht durch zufälliges, gleichzeitiges „Feuern“, sondern das Axon eines Neurons reizt wiederholt ein anderes mit der Folge der Verbindung. Diese Verbindung macht das Lernen und damit erst die Bildung von Wissen möglich. Eine bessere vereinfachte Darstellung kann daher so beschrieben werden:

 

„Eine biologische Nervenzelle „feuert“, wenn sie genügend Anreize erhält, die in Summe ihre Reizschwelle überschreiten.“[75]

 

2. Künstliche neuronale Netze

 

Im Jahre 1943 legten Warren McCullock und Walter Pitts mit „A Logical Calculus of the Ideas Immanent in Nervous Activity“ den Grundstein für die Schaffung künstlich neuronaler Netze.[76] Sie zeigten auf, dass neurobiologische Prozesse, wie der oben beschriebene Lernprozess, mathematisch dargestellt werden können. Künstliche neuronale Netze sind im Grunde nichts anderes als eine Nachahmung biologisch neuronaler Netze in informationsverarbeitenden Systemen.

 

So unterschiedlich auch die Gehirne und Nervensysteme von Lebewesen sind, so herrscht doch allgemein Einigkeit darüber, dass „das Wesen der Funktion des Nervensystems Kontrolle durch Kommunikation ist“.[77] Kommunikation ist Informationsspeicherung, -übertragung und -verarbeitung. Diese Vorgänge sind jedem als typische Vorgänge in einem insbesondere über das Internet vernetzten Rechner bekannt, wahrscheinlich eher weniger als diejenigen im eigenen Gehirn. Zwar sind Neuronen wesentlich langsamer als ihr elektronisches Pendant: ein solches schaltet „nur“ innerhalb von Millisekunden, elektronische Schaltelemente in einer Geschwindigkeit von bis zu Nanosekunden;[78] dennoch kann v.a. das menschliche Gehirn Probleme lösen, die für einen handelsüblichen Rechner (noch) unmöglich sind.

 

Auf Basis des McCulloch-Pitts-Neurons entwickelte Frank Rosenblatt in den 1950ern das sog. Perzepton-Modell, die wissenschaftliche Grundlage von KNN.[79] Das originäre Modell des Perzeptrons besteht nur aus einem einzigen Neuron, dem sog. einfachen Perzeptron.

Jüngere Modelle basieren hierauf, sind zwecks Lösung komplexer Probleme komplexer und schließen mehrere Perzeptron-Neuronen zu einem Netz zusammen. Die Neuronen werden dabei in mehreren sog. Layers (Schichten) angeordnet (einem mehrzelligen Perzeptron), wobei die Neuronen eines Layers nicht miteinander verbunden sind, sondern meist ausschließlich mit den Neuronen des direkt folgenden Layers.[80]

 

II. Der Reiz der Nachbildung

 

„Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Wir wären dumm, wenn wir versuchten, etwas anderes aus dem Boden zu stampfen, das auch nur annähernd so interessant ist.“[81]

 

Natürlich stellen die heutigen künstlichen neuronalen Netze keine 1:1-Abbildung biologischer neuronaler Netze nach. Dennoch ist die Nachbildung biologischer neuronaler Netze die Grundlage für die Entwicklung von KNN und folgt damit einem klassischen Fortschrittskonzept des Menschen. So hat der Mensch das Fliegen von den Vögeln gelernt, ohne selbst zum Vogel werden zu müssen. Er nutzt fliegende Maschinen, die mittlerweile überwiegend von Computern wie dem Autopiloten, Höhen-, Quer- und Seitenruder gesteuert werden.[82] Dabei hat der menschliche Pilot noch Überwachungs- und Korrekturpflichten hinsichtlich der Arbeitsweise des Autopiloten, der richtigen Flugroute und Daten im Flight Management System (FMS).[83] Warum also sollte der Mensch nicht auch Maschinen nutzen wollen, die für ihn denken und handeln, etwa ohne die für die Handlung erforderliche Fähigkeit und Ausbildung zu haben? Schließlich sind nicht alle Menschen gleichermaßen befähigt und verfügen nicht über dasselbe Wissen. Wie reizvoll ist doch der Gedanke, seine Fähigkeiten und sein Wissen ohne Zeit- und Energieaufwand zu erweitern („Enhancement“). Wenn man dabei noch Kosten einsparen kann: Perfekt!

Vermutet wird, dass die massive, lebenslange und hierarchische Vernetzung des menschlichen Gehirns die fundamentale Voraussetzung für Bewusstsein und komplexes Verhalten ist.[84] Denkt man diese aufgrund oben beschriebener Forschungsfortschritte wissenschaftlich belegte Möglichkeit weiter, so muss man davon ausgehen, dass künstlich intelligente Systeme irgendwann tatsächlich Bewusstsein erlangen können und zu komplexen Fähigkeiten wie der Mensch imstande sein werden. Verstehen muss der Mensch die Vorgänge nicht vollumfänglich, so wie er menschliches und tierisches Bewusstsein nicht verstehen muss, um Bewusstsein als existent, wahr und schützenswert anzunehmen. Ausführlich untersucht wurden bislang allerdings vornehmlich die signalerzeugenden und -übertragenden Eigenschaften einzelner Neuronen; wie diese komplexe und hochparallele Systeme bilden, Informationen aufnehmen und verarbeiten, ist noch weitgehend unbekannt.[85] Einen die Menschheit schützenden Forschungsrückstand kann man in diesem Umstand jedoch nicht erkennen.

 

III. … und der korrelierende Reiz des Missbrauchs

 

Heute ist die Entwicklung von Künstlicher Intelligenz in mehreren kleinen Teilbereichen einen großen Schritt weiter als vor etwa 10 Jahren, was insbesondere auf das exponentielle Wachstum von Computerleistung, verbesserte Machine Learning Algorithmen, die Entwicklung von Softwarestandards für schnellere Iteration und Nachbildung von Experimenten, größere und umfassend verfügbare Datenmengen und vermehrte gewerbliche Investitionen zurückzuführen ist.[86] Der denkbar mögliche Anwendungsbereich für Künstliche Intelligenz ist großflächig. Die KI-basierte Bilderkennung hat in den letzten fünf Jahren ihre Erfolgsquote von etwa 70% auf 98 % erhöht, während die menschliche Treffgenauigkeit konstant bei 95 % liegt.[87] Die Erstellung synthetischer Bilder von (nicht existierenden) Menschen ist dabei mittlerweile kaum noch von echten Fotografien zu unterscheiden, während sie vor ein paar Jahren noch offensichtlich unrealistisch waren.[88]

Für die Entwicklung in der Kunst und die Foto-begleitete Berichterstattung ohne Verletzung von Urheber- und Persönlichkeitsrechten ist dies ein beeindruckender und positiver Schritt. Doch in einer Welt, in der die sinnliche Wahrnehmung mit den Augen Wahrheit bedeutet und Augenschein als Beweismittel gilt, ist dies umso mehr eine gefährliche Entwicklung. Die nicht mehr erkennbare Täuschung der Augen (und Ohren) kann im schlimmsten Fall zum „volksgeführten“ Dolch gegen Demokratie und Rechtsstaat werden.

 

1. Mit den Möglichkeiten des Nutzens kommt der reizvolle Fremdnutzen: Das Beispiel Lyrebird

 

Die Software zur Erstellung synthetischer Stimmen und Sprachaufnahmen, die Menschen ohne Möglichkeit der Gegenwehr Aussagen unterstellen und ohne Zweifel falsche Informationen glaubhaft machen können, ist mittlerweile so präzise, dass Missbrauch bis in den politischen Wahlkampf denkbar ist. Das Werbevideo der Firma Lyrebird.ai, in der der ehemalige Präsident Barack Obama ihre Möglichkeiten der synthetischen Stimmgenerierung – angeblich zugunsten von stimmlosen Menschen – zu bewerben scheint, zeigt auf, welch ambivalentes und damit besorgniserregendes Potential Künstliche Intelligenz erlangt hat.[89] Noch besorgniserregender ist, dass sogar Juristen in den sozialen Medien dafür geworben haben, auf der Website des Anbieters einminütige Stimmproben zu hinterlassen. Dabei lautet das aktuelle Lyrebird Evaluation Agreement auszugsweise wie folgt:

 

“Subject to the Biometric Data Agreement, you hereby grant to us a fully paid, royalty-free, perpetual, irrevocable, worldwide, non-exclusive and fully sublicensable right (including any moral rights) and license to use, license, distribute, reproduce, modify, adapt, publicly perform, and publicly display Your Voice, Digital Voice, Digital Voice Messages, Demo Voice Messages and any other materials (“Your Content”) that you create, upload, submit, post or otherwise make available (“Make Available”) on the Services. You warrant that you are the holder of any worldwide intellectual property right, including moral rights, in Your Content.”[90]

 

Der neugierige Nutzer gestattet damit Lyrebird.ai seine (natürliche und synthetische) Stimmenprobe zu verbreiten, zu reproduzieren, zu ändern, anzupassen und öffentlich vorzuführen. Die Stimmenprobe im Übrigen, die auf Amazon-Servern gespeichert wird[91] und dem erklärten Ziel von Lyrebird.ai dient, ihre Technologie und Services bereitzustellen, zu erhalten, zu verbessern und zu erweitern, so wie auch die verwendeten Machine Learning Models.[92] Dass es sich bei diesem biometrischen Datum um ein Dritten zugänglich machbares Business Asset handelt,[93] deren Löschung zwar beansprucht, aber nicht wirklich (v)erlangt werden kann,[94] schon gar nicht, bevor das erklärte Ziel von Lyrebird.ai erreicht wurde,[95] wird immerhin offen zur Kenntnis gebracht.

 

Es soll hier nicht der Eindruck vermittelt werden, dass Lyrebird.ai selbst den Datenschatz missbrauchen wird, den es erhoben hat. Doch zeigt sich an diesem konkreten Beispiel, dass die Grenzen zum Gebrauch durch Dritte ohne konkretes Wissen und Wollen des Nutzers (sowie der Lyrebird.ai) fließend sind.

 

“Please note that Biometric Data may include, without limitation, data that may allow someone to identify/contact you and non-public data.”[96]

 

Die biometrischen Daten der Nutzer werden – zumindest temporär – öffentlich zugänglich gemacht und erlauben so grundsätzlich jedermann, den jeweiligen Nutzer zu identifizieren und zu kontaktieren.

 

Auch werden ausdrücklich Amazon die biometrischen Daten für andere als Storage-Zwecke zur Verfügung gestellt, wie sich aus dem Biometrics Agreement ergibt:

 

“We will disclose Biometric Data to our third party service providers who perform services on our behalf, to (1) provide you with, maintain, improve, and enhance our Services; (2) facilitate creation of user accounts; and/or (3) provide other services to our Users.”[97]

 

Ziffer 3 zeigt, dass Amazon als Third Party Provider (vgl. Nr. 4 des Biometrics Agreements) die biometrischen Daten auch zu dem Zwecke des Angebots anderer Services zur Verfügung gestellt werden können. Diese Bestimmung ist derart weit gefasst, dass sich hier problemlos der Abgleich und Austausch (iVm Ziffer 2, „enhance our Services“) der Lyrebird.ai-Daten mit den Amazon Alexa-Daten sowie die Anreicherung der Alexa-Datensammlung hereinlesen lässt. Rein hypothetisch könnte dies dem „Service“ und Ziel der Direktwerbung für nicht verschreibungspflichtige Medikamente oder Tabakprodukte wegen einer kratzigen Stimme, für Musikprodukte gegen traurige Stimmung und Bücher über die Lösung „erkannter“ psychischer Probleme dienen. Da die denkbaren aufgedrängten und personalisierten Services „für“ die Nutzer schier grenzenlos sind, dürfte der Missbrauch in diesem Biometrics Agreement im Kern angelegt sein. Den wenigsten Nutzern dürfte klar sein, dass sie ihre Stimme – oder Seele – für einen kurzen Moment des Spaßes verkauft haben.

 

„We take the security of your Biometric Data very seriously and have implemented measures to help us protect such data.  We will use reasonable care to guard against any unauthorized disclosure, access, and/or use of your Biometric Data.”[98]

 

Reasonable Care als Maßstab für den Schutz vor Missbrauch durch Dritte erscheint bei dieser maßlosen privaten und geteilten Verwaltung von Massen biometrischer Daten schon fast scherzhaft.

 

2. Schizophrene künstlich intelligente Gesichtserkennung

 

a) Die Bedenken

 

„Und ein Gesicht hat jeder nur eines, ist es vermessen und abgespeichert, bleibt es untrennbar mit der Person verbunden.“[99]

 

Künstlich intelligente Gesichtserkennungssoftware ist in Deutschland wohl vornehmlich durch das umstrittene Berlin-Südkreuz-Projekt bekannt, auch die höchst bedenkliche Fehlerquote von „unter 1 Prozent“[100] und Täuschbarkeit derartiger Software sowie deren Unbrauchbarkeit bei fehlender Kooperation der Zielpersonen (z.B. durch Blickabwenden, Sonnenbrille oder das Gesicht verschattende Kapuze bzw. Kopftuch).[101] Die mangelnde Repräsentativität des Berliner Projekts wird etwa am Beispiel des Champions-League-Finales in Cardiff im Jahre 2017 deutlich, bei dem die südwalisische Polizei mittels Gesichtserkennungssoftware unter 170.000 Besuchern 2.470 als Kriminelle identifizierte. Nur 173 Personen waren wirklich polizeibekannt, sodass die Fehlerquote bei 92 Prozent lag.[102] Doch auch mit den hierzulande geäußerten Bedenken, insbesondere hinsichtlich der fehlenden Rechtsgrundlage, der Verletzung des informationellen Selbstbestimmungsrechts und des Generalverdachts zulasten von jedermann, der auch nur in die Nähe der Kameras kommt, sind die Gefahren künstlicher Intelligenz im Bereich der Gesichtserkennung bei weitem noch nicht benannt. 

 

In einem offenen Brief wandten sich Ende 2017 Vertreter von Unternehmen, die im Bereich Künstliche Intelligenz und Robotik aktiv sind, an die UN und warnten eindringlich vor den Gefahren der – eigenen – Technologien, die für Zwecke der Entwicklung autonomer Waffen problemlos umfunktioniert werden können:

 

„Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora’s box is opened, it will be hard to close. We therefore implore the High Contracting Parties to find a way to protect us all from these dangers.”[103]

 

b) Die Motive

 

Ein Interesse an der Beschränkung der eigenen Entwicklungen haben die Unterzeichner wohl kaum. Allerdings wollen sie auch nicht haftbar gemacht werden für die leicht mögliche Zweckentfremdung ihrer Technologien. Diese vermögen sie nicht auszuschließen, wenn die selbständig lernenden, künstlich intelligenten Systeme „auf die Menschheit losgelassen werden“. An dieser Stelle dürfte das eingangs erwähnte Ansinnen des Europäischen Parlaments, eine elektronische Rechtspersönlichkeit zu schaffen, jedoch seine untragbaren Konsequenzen am deutlichsten zeigen:

 

Es fordert die Kommission aufgrund dieser und anderer Erwägungen auf, „langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügeltsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre, sowie möglicherweise die Anwendung einer elektronischen Persönlichkeit auf Fälle, in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren.“[104]

 

Hersteller wollen und sollen für von ihnen geschaffene, „Böses“ lernende und ausführende Systeme nicht verantwortlich gemacht werden.[105] Computerprogramme und Roboter, die für zivile Anwendungen entwickelt werden, können nämlich gleichermaßen für militärische Zwecke verwendet werden. Im Unterschied zu Atomwaffen, die ganz andere Kapazitäten, Gelder und letztlich eine staatliche Struktur benötigen, ist Künstliche Intelligenz als Dual-Use-Technologie von vielen mit geringem Aufwand einsetzbar.[106]

 

c) Gesichtserkennung: Das perfekte Beispiel

 

In einem autonomen Kraftfahrzeug könnte eine Gesichtserkennungssoftware zunächst zum Entsperren mit einem Blick statt mit dem sperrigen Autoschlüssel dienen, etwa so, wie es bereits heute das iPhone X vermag. Sodann könnte sie sicherstellen, etwa aus versicherungsvertraglichen Gründen, dass ausschließlich der Halter das Fahrzeug starten kann. Dem schließt sich das mögliche Steuern mit der Blickrichtung oder einer Gesichtsbewegung bei der Fahrt an. So könnte vermieden werden, dass Fahrgäste, die in den Fokus der Kamera kommen, das Fahrzeug fehllenken. Nicht zuletzt könnte die Gesichtserkennung das gezielte Parken durch eine Art stupsende Kopfbewegung ermöglichen.

 

In einer autonomen Waffe könnte dieselbe Gesichtserkennungssoftware nun die autonome Waffe entsperren, also entsichern, sobald das Gesicht des „Targets“ (vermeintlich) erkannt wurde. Das (vermeintlich) erkannte Gesicht könnte nun Anlass für die autonome Waffe sein, den Schuss einzuleiten, etwa durch Fokussierung auf die für den schnellen Tod optimalste Körperstelle. Durch die Überwachung der Gesichtsbewegung kann die autonome Waffe voraussagen, in welche Richtung sich das Target als nächstes bewegen wird, um den erfolgreichen Schuss sicherzustellen. Vorbeigehende Personen vermögen die autonome Waffe nicht abzulenken. Ist das Target, erkennbar an der frontalen Ausrichtung des Gesichts, optimal ausgerichtet, kann der gezielte Schuss ausgelöst werden.

 

Die oben ausgeführte hohe Fehlerrate sowie die leichte Verwirrung der künstlich intelligenten Systeme führen nicht etwa dazu, dass eine effizientere Kriegsführung durch präzise Eliminierung und Reduzierung von Kollateralschaden ermöglicht wird,[107] sondern sie führt gerade dazu, dass bis zu 92 % oder mehr Unschuldige zu Schaden kommen, als wenn ein menschlicher Soldat die Waffe anlegen würde.[108]

 

IV. Data Poisoning Attacks – im Grunde auch eine Behandlungsmöglichkeit

 

Künstlich intelligente, maschinenlernende Systeme beziehen ihre „Intelligenz“ aus den ihnen zur Verfügung gestellten bzw. durch sie selbständig gesammelten, gespeicherten, übertragenen und verarbeiteten Daten.[109] Die Gewichtung durch den „Trainer“, der auch der Verbraucher selbst sein kann, bestimmt die weitere Entwicklung und Verhaltensweise aufgrund der durch ihn gewichteten Daten mit. Dieser Datenbestand ist vulnerabel. Auf ihn kann durch „toxische“ Trainingsdaten eingewirkt werden und sich bei dem künstlich intelligenten System in einer Art und Weise auswirken, die ein Mensch nicht vorhersehen konnte.[110] Dieses Resultat kann jedoch zielgerichtet mit einem Angriff verfolgt werden, auch zum eigenen Schutz.[111] Denkbar sind Data Poisoning Attacks nicht zuletzt durch sog. Hintertüren („Backdoors“),[112] ob bewusst geschaffen durch den Hersteller selbst oder durch später eingeschleuste Schadsoftware.

 

Data Poisoning Attacks können bei den vorstehenden Formen unerwünschter Datennutzung nützlich sein, etwa wenn die Gesichtserkennung autonomer Waffen verhindert werden soll. Sie kann jedoch auch dazu führen, dass eine autonome Waffe plötzlich auf alles schießt, was sich bewegt – weil die Gesichtserkennung nur noch auf Bilder ohne Kon­traste zurückgreifen kann.[113]

 

V. Turings Imitation Game als Abschlusstest

 

Die gestellte Frage, ob die hier metaphorisch und mit historischen sowie wissenschaftlichen Argumenten begründete „Schizophrenie“ künstlich intelligenter Systeme behandelbar sei, ist also grundsätzlich mit „Ja“ zu beantworten, denn der Mensch kann künstlich intelligente Systeme durch Manipulation der Daten beeinflussen. Das größte Problem bleibt vielmehr das Interesse des menschlichen Manipulators.

 

Findet sich nun die Antwort auf die Frage von Turing?

 

„Können Maschinen denken?“

 

Können Maschinen sogar so intelligent sein, dass sie vor Manipulatoren schützen?

Noch einmal sei Turings oben ausgeführtes Imitation Game in aktualisierter Form aufgeführt:

 

Dabei ist die Vernehmungsperson nun eine Beobachtungsperson. Die Dame und der Herr im Nebenraum, welcher durch eine Fensterscheibe vom Beobachtungsraum getrennt ist, tragen bei ähnlicher Größe und Statur exakt dieselbe weite dunkle Kleidung mit Kapuze und Sonnenbrille. Dabei nehmen sie stets dieselbe Körperhaltung ein und wenden ihren Blick ab. Stehend. Sitzend. Kauernd.

 

Würde die Beobachtungsperson nun Dame und Herr auseinanderhalten können?

Würde „Sophia“ an die Stelle des Herren treten, würde die Beobachtungsperson dies merken, oder würde sie „sie“ als geschlechtslosen Roboter erkennen? Würde „Sophia“ anstatt der Frau eingesetzt, würde die Beobachtungsperson sie als Frau identifizieren?

 

Würde nun eine Maschine an die Stelle der Beobachtungsperson treten, würde sie Mann oder Frau auseinanderhalten können?

 

Wenn ein Intermediär die Eingabe machen würde, die Frau befände sich auf der linken Seite und sei zu eliminieren, würde die Maschine widersprechen?

 

Würde die menschliche Beobachtungsperson hingegen zum Schuss aufgefordert, würde sie es tun?

 

Höchstwahrscheinlich nicht.

 

Maschinen können nicht denken. Menschen hingegen schon.

 

VI. Würden wir Künstliche Intelligenz verbieten, müssten wir auch Küchenmesser verbieten 

 

Ein Küchenmesser ist erlaubt und frei verkäuflich. Erst seine zweckentfremdende Nutzung kann verboten sein. Das Küchenmesser ist aus einer Küche nicht wegzudenken. Ohne Küchenmesser kann beispielsweise Brot nicht geschnitten und zubereitet werden. Man kann sich natürlich im Rupfen versuchen, doch die Nutzung eines Schneidewerkzeugs wäre nicht erfunden worden, wäre dies per se zufriedenstellend. Die schädliche Nutzung, etwa die Verletzung oder Tötung eines oder mehrerer Menschen mit dem Messer, wird bereits hinreichend sanktioniert. Die infolge der Schärfe mögliche Selbstverletzung wird vom Nutzer akzeptiert. Niemand würde jedoch auf die Idee kommen, einer Brotschneidemaschine Rechtspersönlichkeit zuzuteilen, damit der ggf. durch ihren Betrieb Verletzte nicht erst ermitteln muss, ob er den Hersteller oder Verkäufer in Anspruch zu nehmen hat. Auch nicht mit dem Ziel, Brotschneidemaschinenhersteller in ihrer Innovationsfreude zu unterstützen.

 

Genauso wenig kann die von ihrem Einsatz abhängige Nützlichkeit und Schädlichkeit von Künstlicher Intelligenz dazu führen, sie generell zu verbieten. Der zweckentfremdete, schädliche Gebrauch, i.e. Missbrauch muss sanktioniert sein.

 

F. Wie soll mit schizophrener Künstlicher Intelligenz regulatorisch umgegangen werden?

 

Schädlicher Einsatz lässt sich durch generelle und umfassende Verbote von künstlich intelligenten Systemen nicht verhindern. Doch es ist möglich, weitgehend sicherzustellen, dass die künstlich intelligenten Systeme innerhalb des ihnen vorgegebenen Handlungsrahmens agieren. Missbrauch durch Nutzer bzw. Dritte muss aufwändig sein. In ihren Rechten betroffene Personen müssen Handlungsmöglichkeiten an die Hand bekommen.

 

I. Zivilrechtliche Verantwortlichkeit ist anhand bestehender Gesetze bestimmbar

 

Wird nun ein künstlich intelligentes System, ob in Form eines physischen oder reinen Software-Bots, wie ein Küchenmesser für rechtlich unbedenkliche, nützliche Zwecke in den Verkehr gegeben und erst durch den Nutzer mittelbar oder unmittelbar dafür benutzt, eine Schadenshandlung vorzunehmen, erscheint weder eine originäre Hersteller- noch Maschinenhaftung sachgerecht. Vielmehr muss hier zunächst darüber nachgedacht werden, inwiefern der Nutzer das künstlich intelligente System von seinem ursprünglichen, rechtlich unbedenklichen, nützlichen Zweck hinweg zum schädlichen Zweck entfernt hat und warum er dies überhaupt konnte. Benötigte der Nutzer dafür Spezialwissen, konnte er das System kindesgleich oder nur aufwändig überlisten, bzw. handelt es sich schlichtweg um eine für jedermann nicht vorherzusehende Fehlentwicklung? Sodann stellt sich die Frage, hätte der Hersteller dies vorhersehen können und konnte er geeignete Maßnahmen beim Design umsetzen, um derartige Abweichungen zu unterbinden? Dabei macht es keinen Unterschied, ob das künstlich intelligente System selbständig lernend und selbstkorrigierend agiert. Die externen Einflüsse sind manipulierbar und das Verhalten der Maschine ist beeinflussbar. Hier können und müssen Grenzen gesetzt werden.

Das geltende Recht ist grundsätzlich in der Lage, diese und damit verbundene Haftungsfragen zu lösen. Dafür bedarf es nicht der Schaffung einer elektronischen Person als (weiteres) Haftungssubjekt.

 

II. Konkrete Begriffe schaffen, verwenden und fordern

 

Um vor allem die Hersteller- und Nutzerpflichten konkretisieren zu können, braucht es konkrete Begriffe.

 

Künstliche Intelligenz ist kein Produkt, sondern – wie ausgeführt – ein unbestimmter und besonders unscharfer Begriff. Künstlich intelligent ist im allgemeinen Sprachgebrauch alles, das automatisiert zu einem Ergebnis kommt, wobei es auf Richtigkeit nicht zwingend ankommt. Daher kann und wird „Künstliche Intelligenz“ dazu benutzt werden, Produkteigenschaften blumig zu umschreiben, ohne dass sich z.B. der Verbraucher hierunter etwas vorstellen kann. Hinter Künstlicher Intelligenz verbergen sich jedoch unzählige Technologien[114] und Lösungen einer Technologie, die beschrieben und leicht verständlich erklärt werden können.

 

III. Transparenz gegenüber dem Nutzer und Dritten, die der Nutzer bestimmt

 

Das Beispiel des sich in einem Werbevideo für Lyrebird.ai’s Technologie scheinbar aussprechenden Obamas hat gezeigt, dass es unter Verwendung künstlich intelligenter Systeme möglich geworden ist, Menschenäußerungen auf eine Art und Weise zu simulieren, die nicht mehr als synthetisch erkannt werden können. Synthetisch erzeugte Bilder, Videos und Tonaufnahmen müssen als solche kenntlich gemacht werden um die hierdurch erzeugte Täuschung nicht zu einem folgenschweren Irrtum werden zu lassen.

 

Das gleiche Problem betrifft auch Sprachassistenten, die z.B. Termine mit Menschen vereinbaren, ohne als maschinelle Sprachassistenten erkannt zu werden. Die sich hieraus ergebenden Probleme sind vielfältig und nur zum Teil datenschutzrechtlich relevant. Wer nicht weiß, dass er mit einem maschinellen Assistenten spricht, weiß nicht, dass seine Äußerungen aufgenommen, für die Reaktion des Sprachassistenten notwendigerweise verarbeitet und sehr wahrscheinlich an Dritte weitergeleitet werden, um die Software zu verbessern. Schon aus diesem Grund muss ein Mensch noch vor seinem ersten Wort darüber informiert werden, dass er das Gespräch mit einer aufnehmenden und verarbeitenden Maschine fortführen wird, sollte er dies nicht schon grundsätzlich verweigern.

 

IV. Produktsicherheit und Produkthaftung: Waffen bleiben Waffen, Spielzeug muss Spielzeug bleiben

 

Für das Töten von Menschen zielgerichtet hergestellte autonome Waffen sind Waffen und gehören wie andere Waffen reguliert. Ausgeschlossen muss aber auch sein, dass etwa Kinderspielzeug ein schädliches Eigenleben entwickeln kann. Das heißt, beispielhaft überspitzt, dieselbe hierin verarbeitete Software darf nicht auch in autonomen Waffen verbaut sein.

 

Ansatzpunkt sind hier die europäischen Regularien zu Produktsicherheit und Produkthaftung. Diese sind nicht auf die zahllosen Möglichkeiten vernetzter, autonomer Gegenstände vorbereitet, erst recht nicht auf die Möglichkeiten des Missbrauchs.

 

V. Nachvollziehbarkeit statt elektronischen Person

 

Unklar sei, wer verantwortlich zeichne für eine Entscheidung, die ein Algorithmus autonom fällt. Die Schaffung einer Rechtspersönlichkeit von Robotern bedeute nicht, dass Roboter über ein menschenähnliches Bewusstsein verfügen oder einen anderen Roboter heiraten können.[115]

 

Solche Versuche, geäußerte Bedenken lächerlich zu machen, sind typisch, aber in der Diskussion um die regulatorische Zukunft von Künstlicher Intelligenz unangebracht. Die Befürworter der elektronischen Person unterliegen überwiegend Falschvorstellungen, die von „Show Robots“[116] wie der oben genannten „Sophia“ vermittelt werden; insbesondere durch die inszenierte Menschenähnlichkeit. Rechtsvorschriften auf Sinnestäuschungen aufzubauen ist keine gute Idee.

Um autonomem Maschinenhandeln rechtliche Relevanz verleihen zu können, muss die zugrunde liegende Technologie zunächst mit ihren wesentlichen Eigenschaften definier- und nachvollziehbar sein. Seit über einem Jahrhundert ist es nicht möglich, „Intelligenz“ und „Bewusstsein“ zu definieren, geschweige denn ist es möglich, die von Turing aufgeworfene Frage zufriedenstellend zu beantworten: „Können Maschinen denken?“. Solange die Grundlagen keine klare Beschreibung oder Definition von, erst recht keine formulierbaren Anforderungen an Künstliche Intelligenz zulassen, verbietet sich eine gesetzliche Regelung mit dem Ziel der „eigenen“ Rechtspersönlichkeit. Eine Sache nicht verstehen und kontrollieren zu können, ist der denkbar schlechteste Grund, ihr rechtliche Selbständigkeit zuzuteilen. Die denknotwendig vorangehende und das Problem lösende Rechtsvorschrift muss stattdessen lauten:

 

Jede Entscheidung von Künstlicher Intelligenz muss nachvollziehbar sein!

 

In diese Richtung weisende, allerdings widersprüchliche Ansätze sind in der Entschließung des Europäischen Parlaments[117] zu erkennen, jedoch zu sehr beseelt von der romantischen Vorstellung einer besseren Welt. Einerseits schlägt das Europäische Parlament den Status der elektronischen Person ausdrücklich für „die ausgeklügeltsten autonomen“ und damit nicht durchschaubar agierenden Roboter vor, andererseits fordert es Transparenz und Nachvollziehbarkeit der autonomen Entscheidungen, etwa durch Installierung einer „Black Box“ ähnlich dem Flugschreiber. Letztere Forderung sollte eigentlich dazu anregen, den ersten Vorschlag zu überdenken. Die Nachvollziehbarkeit der Rechenvorgänge sollte nicht nur für die weitere technische Entwicklung, sondern auch für die Klärung der menschlichen Verantwortlichkeit gefordert werden, anstatt diese zu reduzieren oder auszuschließen.[118]

 

VI. Aktuelle Entwicklungen

 

Die Europäische Kommission hat am 25. April 2018 die Notwendigkeit der Transparenz der Künstlicher Intelligenz zugrundeliegenden Algorithmen noch einmal besonders herausgehoben. Sie hat auch erkannt, dass es nicht zwingend um die Offenlegung des Quellcodes geht, sondern, je nach Situation unterschiedliche Formen annehmen kann, einschließlich aussagekräftiger Erläuterungen oder der Berichterstattung an die zuständigen Behörden.[119] Anstatt der Schaffung einer elektronischen Person, plant die Kommission, einen Auslegungsleitfaden zur Klärung der Konzepte der Produkthaftungsrichtlinie im Hinblick auf die neuen Technologien bereitzustellen.[120]

 

G. Mensch, erkenne dich selbst!

 

Der vorstehende Beitrag sollte aufzeigen, dass wir überhaupt nicht wissen, was Künstliche Intelligenz ist. Er sollte darlegen, dass ein und dieselbe Form künstlicher Intelligenz sowohl nützlich als auch in unvorhersehbarer Weise schädlich eingesetzt werden kann, aber auch mit dem unmittelbaren Ziel der Schadenszufügung geschaffen werden kann. Der allgemeine Fokus wird zu sehr auf einen potentiellen positiven Nutzen gelenkt, während die gefährliche Seite von Künstlicher Intelligenz überwiegend unbetrachtet bleibt.

 

Eine dritte Rechtspersönlichkeit, die elektronische Person vor dem Hintergrund der Gefahren, die von Künstlicher Intelligenz im Zusammenspiel mit den Eigenschaften und Schwächen des Menschen ausgehen, einzuführen, würde gravierende Folgen haben. Ihrer Schaffung steht vor allem das mangelnde Verständnis von Künstlicher Intelligenz entgegen. Etwas, das vorhersehbar unvorhersehbare Folgen haben kann, darf nicht verselbständigt in den Rechtsverkehr entlassen werden.

 

Der Mensch bleibt stets verantwortlich; die bestehenden Gesetze bieten einen hinreichenden Rechtsrahmen zur Beurteilung der zivilrechtlichen (und strafrechtlichen) Haftung. Der Mensch ist derjenige, der Künstliche Intelligenz mitsamt ihrer Polarität möglich macht und nutzt. Der Mensch baut Waffen. Der Mensch nutzt Waffen. Menschen schaffen und setzen zahlreiche schädliche Mittel zur Durchsetzung ihrer Interessen ein. Eine ethische und nachvollziehbare Produktentwicklung sowie ethische und nachvollziehbare Nutzung darf daher nicht lediglich freiwilliger Natur sein. Für eine langfristige und nachhaltige Entwicklung von Künstlicher Intelligenz sind Wissen und Klarheit entscheidend.

 

Für die Entwicklung von fördernden sowie beschränkenden Rechtsvorschriften ist dementsprechend Begriffsklarheit zwingend notwendig. Ein sodann ausgearbeiteter, Mindestverpflichtungen enthaltender Rechtsrahmen, insbesondere im Hinblick auf die Nachvollziehbarkeit der Funktionsweise von künstlich intelligenten Systemen, kann weitere freiwillige ethische Vorgaben vorsehen.

 

Der Mensch nutzt Künstliche Intelligenz und bestimmt ihren Einsatz hinsichtlich des Ob, Warum, Wie, Wie lange und Wie umfangreich:

 

“We can get the voice to say anything,” said CereProc’s Graham Leary. Not that they would. “We don’t want [John F. Kennedy] saying things he never would have said.”[121]

 

Der Zweck mag in diesem Falle nur das Erleben von alternativer Geschichte sein, auch die Rekonstruktion und das Erlebbarmachen unserer Vergangenheit. Doch die Möglichkeiten dieser Technologie in den falschen Händen sind beängstigend. Das menschliche Dürfen muss daher dort beschränkt werden, wo der Reiz des Missbrauchs zu groß ist. Aus Erfahrung wissen wir aber, dass Verbote Schädigungshandlungen nicht verhindern können. Wenn es doch zu einem schädigenden Missbrauch von künstlicher Intelligenz gekommen ist, etwa durch einen Angriff, dann muss dieser auch menschlichen Verantwortlichen zugeordnet werden können (sog. Attribution). Mit diesem Thema setzt sich nachfolgend Herausgeberbeirätin Dr. Aleksandra Sowa auseinander.

A

A


[1]  Turing, A. M., „Computing Machinery and Intelligence“ in Mind – A Quarterly Review of Psychology and Philosophy, Vol. LIX, Nr. 236, October 1950, 433 (460), https://academic.oup.com/mind/article/LIX/236/433/986238 (zuletzt abgerufen am 9. Mai 2018).

[2]  Zusammenfassend: Delcker,J., “Europe divided over robot ‘personhood’”, 11. April 2018, https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ (zuletzt abgerufen am 10. Mai 2018).

[3]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (zuletzt abgerufen am 10. Mai 2018).

[4]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), Erwägungsgrund B, Seite 1, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (zuletzt abgerufen am 10. Mai 2018).

[5]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), Seite 19, Buchst. f); http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (zuletzt abgerufen am 10. Mai 2018).

[6]  Günther, J.-P., „Roboter und rechtliche Verantwortung: Eine Untersuchung der Benutzer- und Herstellerhaftung“, 2016, Herbert Utz Verlag, S. 138 mwN.

[7]  § 90a BGB: „Tiere sind keine Sachen. Sie werden durch besondere Gesetze geschützt. Auf sie sind die für Sachen geltenden Vorschriften entsprechend anzuwenden, soweit nicht etwas anderes bestimmt ist.“

Günther, J.-P., „Roboter und rechtliche Verantwortung: Eine Untersuchung der Benutzer- und Herstellerhaftung“, 2016, Herbert Utz Verlag, S. 138 mwN.

[8]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), Seite 26; http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE.

[9]  Open Letter to the European Commission – Artificial Intelligence and Robotics; http://www.robotics-openletter.eu/ (zuletzt abgerufen am 13. Mai 2018).

[10]Turing, A. M., „Computing Machinery and Intelligence“ in Mind – A Quarterly Review of Psychology and Philosophy, Vol. LIX, Nr. 236, Oktober 1950, 433 ff. https://academic.oup.com/mind/article/LIX/236/433/986238 (zuletzt abgerufen am 9. Mai 2018).

[11]  Vgl. CAPTCHA: Completely Automated Public Turing test to tell Computers and Humans Apart. 

[12]  Anlässlich deren 50. Jahrestags vom 13. bis 15. Juli 2006 am Darthmouth College die „Darthmouth Artificial Intelligence Conference: The Next Fifty Years“ veranstaltet wurde, http://www.dartmouth.edu/~ai50/program.html (zuletzt abgerufen am 9. Mai 2018).

[13]  Aufbereitung mit Abdruck des Originaldokuments, AI Magazine, Vol. 27, No. 4 (2006), S. 12 ff., https://www.aaai.org/ojs/index.php/aimagazine/article/viewFile/1904/1802. (zuletzt abgerufen am 9. Mai 2018).

[14]Sesink, W., „Menschliche und künstliche Intelligenz, Der kleine Unterschied“, Re-Edition 2012, 1. Endzeit, http://www.sesink.de/wordpress/wp-content/uploads/2014/10/Menschliche-k%C3%BCnstliche-Intelligenz.pdf (zuletzt abgerufen am 8. Mai 2018).

[15]  Klocke, H., Fachhochschule Köln, Fakultät für Informatik und Ingenieurswissenschaft, Künstliche Intelligenz, Intelligente Agenten, Wintersemester 2011, Künstliche Intelligenz (KI), http://www.gm.fh-koeln.de/~hk/lehre/ki/ws1011/ki_ws1011_welcome.html (zuletzt abgerufen am 8. Mai 2018).

[16]  Vgl.: Brundage, Miles, Avin, Shahar et al., „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, Februar 2018, Seite 9 https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 21. April 2018).

[17]  Funke, J./Vaterrodt, B., „Was ist Intelligenz“, S. 9.

[18]  Boring, E. G., „Intelligence as the Tests Test It“, New Republic 36 (1923), 35-37.

[19]  Schank & Chidlers, 1986, S. 72; Sesink, W., „Menschliche und künstliche Intelligenz, Der kleine Unterschied“, Re-Edition 2012, 2. „Output ist alles, was wir bekommen“, http://www.sesink.de/wordpress/wp-content/uploads/2014/10/Menschliche-k%C3%BCnstliche-Intelligenz.pdf (zuletzt abgerufen am 8. Mai 2018).

[20]Smith, C. et al., „The History of Artificial Intelligence“, History of Computing, CSEP 590A, University of Washington, Dezember 2006, S. 4, https://courses.cs.washington.edu/courses/csep590/06au/projects/history-ai.pdf (zuletzt abgerufen am 9. Mai 2018).

[21]  http://www.informatik.uni-oldenburg.de/~iug08/ki/Grundlagen_Starke_KI_vs._Schwache_KI.html, „Etikettenschwindel“, so Sesink, W., „Menschliche und künstliche Intelligenz, Der kleine Unterschied“, Re-Edition 2012, 1. Endzeit, http://www.sesink.de/wordpress/wp-content/uploads/2014/10/Menschliche-k%C3%BCnstliche-Intelligenz.pdf (zuletzt abgerufen am 8. Mai 2018).

[22]  Sesink, W., „Menschliche und künstliche Intelligenz, Der kleine Unterschied“, Re-Edition 2012, 1. Endzeit, http://www.sesink.de/wordpress/wp-content/uploads/2014/10/Menschliche-k%C3%BCnstliche-Intelligenz.pdf (zuletzt abgerufen am 8. Mai 2018).

[23]  Vgl. Schank & Chidlers, 1986, S. 72; Sesink, W., „Menschliche und künstliche Intelligenz, Der kleine Unterschied“, Re-Edition 2012, 2. „Output ist alles, was wir bekommen“, http://www.sesink.de/wordpress/wp-content/uploads/2014/10/Menschliche-k%C3%BCnstliche-Intelligenz.pdf (zuletzt abgerufen am 8. Mai 2018).

[24]  Aufbereitung mit Abdruck des Originaldokuments, AI Magazine, Vol. 27, No. 4 (2006), S. 14, https://www.aaai.org/ojs/index.php/aimagazine/article/viewFile/1904/1802. (zuletzt abgerufen am 9. Mai 2018).

[25]  Turing, A. M., „Computing Machinery and Intelligence“ in Mind – A Quarterly Review of Psychology and Philosophy, Vol. LIX, Nr. 236, October 1950, S. 458, https://academic.oup.com/mind/article/LIX/236/433/986238 (zuletzt abgerufen am 9. Mai 2018).

[26]  Vgl.: Brundage, Miles, Avin, Shahar et al., „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, Februar 2018, S. 9, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 21. April 2018).

[27]  Rahimi, A./Recht, B., „Reflections on Random Kitchen Sinks”, 5. Dezember 2017, http://www.argmin.net/2017/12/05/kitchen-sinks/ (zuletzt abgerufen am 9. Mai 2018).

[28]  Als Gegenteil zur personalisierten, auf die eigenen Interessen zugeschnittene Werbung.

[29]Schmidt-Hauß, M./Sabel, D., „Einführung in die Methoden der Künstlichen Intelligenz“, WS 2012/2013, Institut für Informatik, Fachbereich Informatik und Mathematik, Goethe-Universität Frankfurt am Main, Stand: 11. Februar 2013, S. 3 f., http://www.ki.informatik.uni-frankfurt.de/lehre/WS2012/KI/skript/skript11Feb13.pdf (zuletzt abgerufen am 8. Mai 2018).

[30]Schmidt-Hauß, M./Sabel, D., „Einführung in die Methoden der Künstlichen Intelligenz“, WS 2012/2013, Institut für Informatik, Fachbereich Informatik und Mathematik, Goethe-Universität Frankfurt am Main, Stand: 11. Februar 2013, S. 17 http://www.ki.informatik.uni-frankfurt.de/lehre/WS2012/KI/skript/skript11Feb13.pdf (zuletzt abgerufen am 8. Mai 2018).

[31]  Vgl. Rahimi, A./Recht, B., „Reflections on Random Kitchen Sinks”, 5. Dezember 2017, http://www.argmin.net/2017/12/05/kitchen-sinks/ (zuletzt abgerufen am 9. Mai 2018).

[32]  Vgl.: Brundage, Miles, Avin, Shahar et al., „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, Februar 2018, S. 16, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 21. April 2018) und dazu Turing’s Vorhersage um 1950, Turing, A. M., „Computing Machinery and Intelligence“ in Mind – A Quarterly Review of Psychology and Philosophy, Vol. LIX, Nr. 236, October 1950, 433 (424, 455) https://academic.oup.com/mind/article/LIX/236/433/986238 (zuletzt abgerufen am 9. Mai 2018)..

[33]  Lediglich beispielhaft: Harding, L./ Barding, L., “From the archive, 12 May 1997: Deep Blue win a giant step for computerkind”, originally published in the Guardian on 12 May 1997, https://www.theguardian.com/theguardian/2011/may/12/deep-blue-beats-kasparov-1997; Gibbs, S., “AlphaZero AI beats champion chess program afterteaching itself in four hours”, 7. Dezember 2017, The Guardian, https://www.theguardian.com/technology/2017/dec/07/alphazero-google-deepmind-ai-beats-champion-program-teaching-itself-to-play-four-hours (zuletzt abgerufen am 13. Mai 2018).

[34]  Lediglich beispielhaft: Hern, A., “Google’s Go-playing AI still undefeated with victory over world number one”, 25. Mai 2017, The Guardian, https://www.theguardian.com/technology/2017/may/25/alphago-google-ai-victory-world-go-number-one-china-ke-jie (zuletzt abgerufen am 13. Mai 2018).

[35]  Beispielhafte Literatur: Kott, A., U.S. Army Research Laboratory, “Challenges and Characteristics of Intelligent Autonomy for Internet of Battle Things in Highly Adversarial Environments“, 13. April 2018, https://arxiv.org/ftp/arxiv/papers/1803/1803.11256.pdf (zuletzt abgerufen am 18. April 2018); Cummings, M. L., „Artificial Intelligence and the Future of Warfare“, Chatham House, Januar 2017, https://www.chathamhouse.org/sites/files/chathamhouse/publications/research/2017-01-26-artificial-intelligence-future-warfare-cummings-final.pdf (zuletzt abgerufen am 18. April 2018).

[36]Krempl, S., „Autonome Waffen mit KI: Auf dem Weg zur „Schlachtfeld-Singularität“, 19. April 2018, https://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-KI-Auf-dem-Weg-zur-Schlachtfeld-Singularitaet-4027249.html (zuletzt abgerufen am 22. April 2018).

[37]  Clausewitz, Carl von, „Vom Kriege“ (1832-1834; 2010, Anaconda Verlag GmbH Köln), S. 24.

[38]  Clausewitz, Carl von, „Vom Kriege“ (2010, Anaconda Verlag GmbH Köln), S. 24.

[39]  Clausewitz, Carl von, „Vom Kriege“ (2010, Anaconda Verlag GmbH Köln), S. 24.

[40]  Vgl. Clausewitz, Carl von, „Vom Kriege“ (2010, Anaconda Verlag GmbH Köln), S. 24.

[41]  Z.B. Sun Tsu, „Die Kunst des Krieges“, Hrsg. James Clavell, 16. Aufl. 2016, Nikol Verlag.

[42]  Empfehlenswert für den Einstieg in die Thematik Cyberkrieg: Gaycken, S., „Cyberwar – Das Internet als Kriegsschauplatz“, 2011, S. 25 (26).

[43]  Krempl, S., „Autonome Waffen mit KI: Auf dem Weg zur „Schlachtfeld-Singularität“, 19. April 2018, https://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-KI-Auf-dem-Weg-zur-Schlachtfeld-Singularitaet-4027249.html (zuletzt abgerufen am 22. April 2018).

[44]  https://www.admin.ch/opc/de/classified-compilation/19770112/index.html (zuletzt abgerufen am 22. April 2018).

[45]  https://www.admin.ch/opc/de/classified-compilation/19770113/index.html (zuletzt abgerufen am 22. April 2018).

[46]  Ziolkowski, K. , Computernetzwerkoperationen und die Zusatzprotokolle zu den Genfer Abkommen – Zum „virtuellen Raum“ des Internet und dem Schutzstandard der vor 30 Jahren in Kraft getretenen Protokolle, Humanitäres Völkerrecht, Informationsschriften, 4/2008, S. 202 (210), http://www.ifhv.de/documents/huvi/huv_2008/4_2008.pdf ((zuletzt abgerufen am 22. April 2018).

[47]  „Sign recognition is an integral part of autonomous cars. Any misclassification of traffic signs can potentially lead to a multitude of disastrous consequences, ranging from a life-threatening accident to a large-scale interruption of transportation services relying on autonomous cars. In this paper, we propose and examine realistic security attacks against sign recognition systems for Deceiving Autonomous caRs with Toxic Signs (we call the proposed attacks DARTS).Sitawarin et al., DARTS: Deceiving Auto-nomous Cars with Toxic Signs, Feb 2018, https://arxiv.org/abs/1802.06430 (zuletzt abgerufen am 22. April 2018).

[48]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), Seite 23, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE.

[49]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), S. 19, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE.

[50]  Vgl. hierzu insbesondere BVerfG, Beschluss der 1. Kammer des Zweiten Senats vom 13. August 2013 – 2 BvR 2660/06 – Rn. (1-70) zur Frage der Schadensersatz- und Entschädigungspflicht der Bundesrepublik Deutschland für die Tötung oder Verletzung von Zivilpersonen als Folge der Zerstörung einer Brücke in der serbischen Stadt Varvarin am 30. Mai 1999 während der gegen die Förderative Republik Jugoslawien geführten Luftoperation „Allied Force“ der Organisation des Nordatlantikvertrags (NATO), Rn 65, „Es ist in erster Linie Aufgabe der Zivilgerichte, die verfassungsrechtlichen Mindestanforderungen an die effektive Durchsetzung grundrechtlich geschützter Rechtspositionen zu entfalten und prozessrechtlich zu konkretisieren. Dazu gehört die Entwicklung von Grundsätzen zu der Frage, ob in Konstellationen wie der vorliegenden, in denen die Beweisnot der Beschwerdeführer als ungewollt vom Kampfgeschehen betroffener Zivilisten nicht von der Hand zu weisen ist, stets von Verfassungs wegen die Grundsätze über die sekundäre Darlegungslast zur Anwendung gelangen müssen oder gegebenenfalls sogar eine Beweislastumkehr angezeigt ist. Namentlich der Bundesgerichtshof geht auf diese Fragen nicht näher ein – was allenfalls teilweise seinen Grund im Revisionsvorbringen finden dürfte -, sondern legt seiner Entscheidung die im Amtshaftungsrecht allgemein geltenden Grundsätze für die Darlegungs- und Beweislast zugrunde. Dies stößt insbesondere deshalb auf verfassungsrechtliche Bedenken, soweit zugunsten der beklagten Bundesrepublik Deutschland, wohl um eine sekundäre Darlegungslast zu verneinen, ohne Weiteres – nicht anders als in einem Prozess zwischen Privaten – Aspekte der Zumutbarkeit herangezogen werden.“, http://www.bundesverfassungsgericht.de/entscheidungen/rk20130813_2bvr266006.html (zuletzt abgerufen am 13. Mai 2018).

[51]  Im Gegensatz zu den Aussagen von Elon Musk sind diejenigen des im März 2018 verschiedenen britischen Physikers und Astrophysikers Stephen Hawking verlässlicher. Hawking äußerte sich schon 2014 im Zusammenhang mit der Frage nach dem von ihm verwendeten Sprachsystem, um mit der Außenwelt kommunizieren zu können, dass er in künstlicher Intelligenz eine Bedrohung für die Menschheit sehe, durch sie könne das Ende der Menschheit eingeleitet werden. Die Technik von Intel lernte, wie der Professor denkt und schlug Worte vor, die Hawking als nächstes vermutlich nutzen würden: „Physiker warnt vor künstlicher Intelligenz“, Handelsblatt vom 3. Dezember 2014, http://www.handelsblatt.com/technik/forschung-innovation/stephen-hawking-physiker-warnt-vor-kuenstlicher-intelligenz/11067072.html (zuletzt abgerufen am 21. April 2018). Die Besorgnis um das Ende der Menschheit durch K.I. äußerte er bis zuletzt.

[52]  Neurologen und Psychiater im Netz – Das Informationsportal zur psychischen Gesundheit und Nervenerkrankungen, „Was ist Schizophrenie / eine schizophrene Psychose?“,  https://www.neurologen-und-psychiater-im-netz.org/psychiatrie-psychosomatik-psychotherapie/erkrankungen/schizophrenie/was-ist-schizophrenie/, herausgegeben von Berufsverbänden und Fachgesellschaften für Psychiatrie, Kinder- und Jugendpsychiatrie, Psychotherapie, Psychosomatik, Nervenheilkunde und Neurologie aus Deutschland und der Schweiz (zuletzt abgerufen am 18. April 2018).

[53]  Sharkey, N. in Delcker, Janosch, 11. April 2018, “Europe divided over robot ‘personhood’”, https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ (zuletzt abgerufen am 10. Mai 2018).

[54]  Wobei in diesem Fall „künstliche Intelligenz“ nach Angaben des Co-Entwicklers Ben Goertzel wohl eher als „schwache K.I.“, “Etikettenschwindel“, siehe oben und Fn 19, verstanden werden muss, also als ein Chatbot, dessen Konversation auf einem einfachen Entscheidungsbaum beruht. Eben nur in einer „unique fashion“: Vincent, J., „Sophia, the robot’s co-creator says that bot may not be AI, but it is a work of art“,  10. November 2017, https://www.theverge.com/2017/11/10/16617092/sophia-the-robot-citizen-ai-hanson-robotics-ben-goertzel (zuletzt abgerufen am 18. Mai 2018).

[55]  https://www.youtube.com/watch?v=W0_DPi0PmF0 (zuletzt abgerufen am 18. April 2018).

[56] „syn. Übersprungbewegung [engldisplacement activity], [KOG], in Konfliktsituationen auftretende irrelevante Handlung, die keinem der einander widerstreitenden Stimmungen oder Handlungsbereitschaften zugeordnet werden kann. Kämpfende Hähne z.B., die durch gleichzeitig aktivierte Fluchttendenzen im Angriff gehemmt sind, zeigen unerwartet unvollkommene Pickbewegungen gegen den Boden, obwohl keine Nahrung vorhanden ist. Sehr häufig treten Putzbewegungen, Sichschütteln, Schnabelwetzen, Badebewegungen und andere Verhaltensweisen der Körperpflege als Ü. auf. Sebelschnäbler scheinbrüten in Kampfpausen. Zur Erklärung des Auftretens von Ü. werden in der Ethologie diskutiert (1) die Überflusshypothese (die beiden Handlungsenergien blockieren sich gegenseitig, und es kommt zum Überfluss in eine irrelevante Handlung), (2) die Enthemmungshypothese (durch die gegenseitige Hemmung der Handlungsenergien wird die Ausführung einer anderen Handlung enthemmt), z.B. ÜbersprungputzenAuslösemechanismus, Leerlaufhandlung, Ersatzhandlung, Ersatzbefriedigung.“

Dorsch, Lexikon der Psychologie, 18. Aufl., https://m.portal.hogrefe.com/dorsch/uebersprung-uebersprungshandlung/ (zuletzt abgerufen am 22. April 2018).

[57]  Vgl. Kommentare zum Video, https://www.youtube.com/watch?v=W0_DPi0PmF0 (zuletzt abgerufen am 18. April 2018).

[58]  Vgl. auch das 31. Strategem chinesischer Kriegskunst: Die List der schönen Frau.

[59]  „(= K.) [engl. baby (face) schema], [KOG], die bei Menschen und bei vielen höheren Tierarten vorkommenden kindlichen Körper- und Gesichtsproportionen sowie auch Verhaltensmerkmale des kindlichen Organismus, die als Schlüsselreiz gedeutet werden und Kümmerungs- und Fürsorgeverhalten auslösen. Dadurch wird gerade im Tierreich gewährleistet, dass sich die Eltern um ihre Jungen kümmern, sie beschützen und groß ziehen. Dieser im Wesentlichen angeborene Mechanismus hat in der Evolution der höheren Arten, bei der immer länger dauernden Aufzucht der Jungtiere, seine Bedeutung in der hier notwendigen Eltern-Kind-Bindung. Zu dem K. gehören Merkmale wie große Augen, Pausbacken, hohe, vorgewölbte Stirn sowie ein (im Vergleich zum Erw.) gestauchter Körper mit einem überproportional großen Kopf und die zaghaft bis tollpatschigen Bewegungen des Kleinkindes. (K. Lorenz 1943) Das Gegenstück wird als das Mutterschema bez., das bei Kleinkindern Vertrauen und Klammern auslöst. In der Kosmetik, der Puppenindustrie wie auch im Zeichentrickfilm wird die Funktion des K. – hervorgerufen durch bes. groß gezeichnete Augen, überproportional große Köpfe und sehr kleine oder ganz fehlende Nasenbes. gern eingesetzt, um die Attraktivität (die «Jugendlichkeit») zu erhöhen.“ Dorsch, Lexikon der Psychologie, 18. Aufl., https://portal.hogrefe.com/dorsch/kindchenschema/ (zuletzt abgerufen am 22. April 2018).

[60]  https://www.youtube.com/watch?v=W0_DPi0PmF0 (zuletzt abgerufen am 18. April 2018).

[61]  Am besten zeigt sich dies in den Reaktionen auf Sophias Äußerungen: https://www.youtube.com/watch?v=W0_DPi0PmF0 (zuletzt abgerufen am 18. April 2018).

[62]  Vgl. hierzu das Experiment des „Backwards Brain Bicycle“, „Knowledge is not understanding“, https://www.youtube.com/watch?v=MFzDaBzBlL0 (zuletzt abgerufen am 18. April 2018).

[63]  Dafür bedarf es Bewusstsein, welches wir noch nicht einmal beim Menschen fassen und erklären können.

[64]  Liberman, N.; Trope, Y.; Stephan, E., „Psychological Distance“, 2007, http://www.psych.nyu.edu/trope/Liberman%2C%20Trope%2C%20&%20Stephan%2C%202007.pdf, S. 353 ff. (zuletzt abgerufen am 20. April 2018).

[65]Liberman, N.; Trope, Y.; Stephan, E., „Psychological Distance“, 2007, http://www.psych.nyu.edu/trope/Liberman%2C%20Trope%2C%20&%20Stephan%2C%202007.pdf, S. 353 (zuletzt abgerufen am 20. April 2018).

[66]Liberman, N.; Trope, Y.; Stephan, E., „Psychological Distance“, 2007, http://www.psych.nyu.edu/trope/Liberman%2C%20Trope%2C%20&%20Stephan%2C%202007.pdf, S. 353 (zuletzt abgerufen am 20. April 2018).

[67]  Vgl. Liberman, N.; Trope, Y.; Stephan, E., „Psychological Distance“, 2007, http://www.psych.nyu.edu/trope/Liberman%2C%20Trope%2C%20&%20Stephan%2C%202007.pdf, S. 353 (zuletzt abgerufen am 20. April 2018).

[68]König, M., „Töten per Knopfdruck ist einfacher“, Welt am 14. Juli 2017, https://www.welt.de/gesundheit/psychologie/article166640353/Toeten-per-Knopfdruck-ist-einfacher.html (zuletzt abgerufen am 20. April 2018).

[69]  Frei nach Carl von Clausewitz.

[70] Fiedler, T. u.a. „Künstliche neuronale Netze (KNN) zur Verbrauchsprognose im Strom- und Gasbereich, Querschnitt 21, S. 135 (136), http://ohp.de/de/presse/Kuenstliche_Neuronale_Netze.pdf (zuletzt abgerufen am 7. Mai 2018).

[71]  Vgl. Rojas, R., „Theorie der neuronalen Netze“, S. 10 f.

[72]  Shatz, Carla J., “The developing brain.” Sci Am. 1992 Sep; 267(3):60-7.

[73]  Hebb, D. O., “The Organisation of Behavior”, 1949, S. 62.

[74]  Übersetzung nach Kandel et al., 1995, S. 700.

[75]  Fiedler, T. u.a. „Künstliche neuronale Netze (KNN) zur Verbrauchsprognose im Strom- und Gasbereich, Querschnitt 21, S. 135 (137), http://ohp.de/de/presse/Kuenstliche_Neuronale_Netze.pdf (zuletzt abgerufen am 7. Mai 2018).

[76]  McCullock, W., Pitts, W., „A Logical Calculus of the Ideas Immanent in Nervous Activity“, Bulletin of Mathematical Biophysics, Vol. 5, 1943, https://pdfs.semanticscholar.org/5272/8a99829792c3272043842455f3a110e841b1.pdf (zuletzt abgerufen am 7. Mai 2018).

[77]Rojas, R., „Theorie der neuronalen Netze“, S. 3.

[78]  Vgl. Rojas, R., „Theorie der neuronalen Netze“, S. 3 f.

[79]  Rosenblatt, F., “The Perceptron: A Perceiving and Recognizing Automaton (Project Para), 1957, Cornell Aeronautical Laboratory, Inc., https://blogs.umass.edu/brain-wars/files/2016/03/rosenblatt-1957.pdf (zuletzt abgerufen am 7. Mai 2018); „The Perceptron: A Probabilistic Model for Information Storage and Organisation in the Brain.”, Psychological Review, Vol. 65, No. 6, 1958, http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.335.3398&rep=rep1&type=pdf (zuletzt abgerufen am 7. Mai 2018).

[80]  Otte, S., „Das Perzepton“, 2009, https://www.cs.hs-rm.de/~panitz/prog3WS08/perceptron.pdf (zuletzt abgerufen am 7. Mai 2018).

[81] Simpson, T., Zitat in Der Spiegel, Zehntausend stürzten ab, 1. Juni 1998, http://www.spiegel.de/spiegel/print/d-7898339.html (zuletzt abgerufen am 7. Mai 2018).

[82] Braun, N., „Was kann eigentlich der Autopilot?“, Antworten aus dem Cockpit, 6. April 2017, http://www.airliners.de/was-kann-eigentlich-der-autopilot/33438 (zuletzt abgerufen am 8. Mai 2018).

[83]  Vgl. Braun, N., „Was kann eigentlich der Autopilot?“, Antworten aus dem Cockpit, 6. April 2017, http://www.airliners.de/was-kann-eigentlich-der-autopilot/33438 (zuletzt abgerufen am 8. Mai 2018).

[84]  Vgl. Rojas, R. „Theorie der neuronalen Netze“, S. 4.

[85]  Vgl. Rojas, R., „Theorie der neuronalen Netze“, S. 4.

[86]Jordan, M.I., Mitchell, T.M. 2015, “Machine learning: Trends, perspectives, and prospects,” Science Vol. 349, Issue 6245, pp. 255-260, DOI: 10.1126/science.aaa8415; Brundage, Miles, Avin, Shahar et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Februar 2018, S. 12, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 8. Mai 2018).

[87]  Brundage, Miles, Avin, Shahar et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Februar 2018, S. 13, 14, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 8. Mai 2018).

[88]  Brundage, Miles, Avin, Shahar et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Februar 2018, S. 13, 15, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 8. Mai 2018).

[89]  https://www.youtube.com/watch?v=YfU_sWHT8mo, “This is an artificial video created by Lyrebird. It does not convey the opinion of Barack Obama.” (zuletzt abgerufen am 8. Mai 2018).

[90]  Lyrebird Evaluation Agreement, last updated: August 25, 2017, https://www.lyrebird.ai/terms/evaluation (zuletzt abgerufen am 8. Mai 2018).

[91]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 4, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[92]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 3, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[93]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 5, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[94]  „We will use commercially reasonable efforts to honor requests for deletion of Biometric Data, but we cannot promise that deletion will occur within a specific timeframe.“ Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 6 Abs. 1, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 13. Mai 2018, Umsetzungsansätze in Bezug auf die DSGVO sind nicht erkennbar).

[95]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 6 Abs. 2 und 3, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[96]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 2, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[97]Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 5, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[98]  Lyrebird, Inc. Agreement and Written Release Regarding Collection, Storage, and Disclosure of Biometric Data, Nr. 4, https://www.lyrebird.ai/terms/biometrics (zuletzt abgerufen am 8. Mai 2018).

[99] Kurz, C., „Ortstermin am Südkreuz: Die automatische Gesichtserkennung beginnt“, 1. August 2017, https://netzpolitik.org/2017/ortstermin-am-suedkreuz-die-automatische-gesichtserkennung-beginnt/ (zuletzt abgerufen am 10. Mai 2018).

[100]  Meint hier die sog. Falscherkennungsrate, Kurz, C., „De Maizière plant flächendeckende Gesichtserkennung trotz hoher Fehlerquoten am Südkreuz“, 20. Dezember 2017, https://netzpolitik.org/2017/de-maiziere-plant-flaechendeckende-gesichtserkennung-trotz-hoher-fehlerquoten-am-suedkreuz/ (zuletzt abgerufen am 10. Mai 2018).

[101]  Kurz, C., „De Maizière plant flächendeckende Gesichtserkennung trotz hoher Fehlerquoten am Südkreuz“, 20. Dezember 2017, https://netzpolitik.org/2017/de-maiziere-plant-flaechendeckende-gesichtserkennung-trotz-hoher-fehlerquoten-am-suedkreuz/ (zuletzt abgerufen am 10. Mai 2018).

[102]  “Facial recognition tech used by UK police is making a ton of mistakes”, 4. Mai 2018, https://www.wired.co.uk/article/face-recognition-police-uk-south-wales-met-notting-hill-carnival; Welsh police wrongly identify thousands as potential criminals“, 5. Mai 2018, https://www.theguardian.com/uk-news/2018/may/05/welsh-police-wrongly-identify-thousands-as-potential-criminals; Gesichtserkennung markiert Tausende versehentlich als Kriminelle”, 7. Mai 2018, https://futurezone.at/netzpolitik/gesichtserkennung-markiert-tausende-versehentlich-als-kriminelle/400031842 (beide zuletzt abgerufen am 10. Mai 2018).

[103]  „An Open Letter to the United Nations Convention on Certain Conventional Weapons“, https://futureoflife.org/autonomous-weapons-open-letter-2017 (zuletzt abgerufen am 10. Mai 2018).

[104]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), Seite 19, Buchst. f); http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE.

[105]  Vgl. “By adopting legal personhood, we are going to erase the responsibility of manufacturers,” said Nathalie Navejans, a French law professor at the Université d’Artois, who was the driving force behind the letter”, Delcker, J., 11. April 2018, “Europe divided over robot ‘personhood’”, https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ (zuletzt abgerufen am 10. Mai 2018).

[106]Rötzer, F., „Elon Musk warnt mit Robotik- und KI-Chefs vor autonomen Waffensystemen“, 22. August 2017, https://www.heise.de/tp/features/Elon-Musk-warnt-mit-Robotik-und-KI-Chefs-vor-autonomen-Waffensystemen-3809811.html (zuletzt abgerufen am 10. Mai 2018).

[107]  „Es gibt gute Argumente für und gegen Kampfroboter“, Interview von Werner Pluta mit Oliver Bendel, 4. Mai 2018, S. 2, https://www.golem.de/news/oliver-bendel-es-gibt-gute-argumente-fuer-und-gegen-kampfroboter-1805-134192.html (zuletzt abgerufen am 10. Mai 2018).

[108]  Siehe oben zum Champions-League-Finales in Cardiff im Jahre 2017, Fn 99.

[109]  Siehe oben, C.II, E.I.2.

[110]Brundage, Miles, Avin, Shahar et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Februar 2018, S. 14, 17, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 8. Mai 2018).

[111]  Rogers, K., “Don’t Just Delete Facebook, Poison Your Data First”, 28. März 2018, https://motherboard.vice.com/en_us/article/qvxv4x/how-to-delete-facebook-data (zuletzt abgerufen am 13. Mai 2018).

[112]  Brundage, Miles, Avin, Shahar et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Februar 2018, S. 14, 26, https://arxiv.org/pdf/1802.07228.pdf (zuletzt abgerufen am 8. Mai 2018).

[113]  Leicht verständlich: „Kontrast, ein wichtiger Faktor für die Mustererkennung“, Hummel, P. in „Die Tücken der Gesichtserkennung“, 27. November 2017, https://www.spektrum.de/news/die-tuecken-der-gesichtserkennung/1521469; für den wissenschaftlichen Einstieg: „In geometrischen Verfahren werden durch Ausnutzung der Symmetrie und des festen Schemas eines Gesichts bestimmte Merkmale (Augen, Nase, Mund, Gesichtsumriss, etc.) durch Kontrastunterschiede und statistische Schätzungen ermittelt, um schließlich ein geometrisches Modell des Ausgangsgesichts zu erstellen.“, Das sog. Elastic Bunch Graph Matching „basiert darauf, jedes Gesicht in ein festgelegtes Raster aus Knoten und Kanten zu legen. (…) Bei jedem Knoten wird nun mithilfe sogenannter Jets, einem Bündel von bestimmten Wavelets, das den Knoten umgebende (Farb-)Muster gespeichert. Diese Jets machen das Verfahren unempfindlich gegen Schwankungen in Bildhelligkeit und -kontrast.“ Wobei der Mangel an Licht und Kontrast auch hier nicht hergezaubert werden kann. Auszüge aus Baur, Dominikus, „Automatische Gesichtserkennung: Methoden und Anwendungen“, http://www.medien.ifi.lmu.de/fileadmin/mimuc/hs_ws0506/papers/Automatische_Gesichtserkennung.pdf  (zuletzt abgerufen am 18. Mai 2018).

[114]  Insbesondere als Methoden zu verstehen.

[115]  Vgl. Lucchetti, S. in Delcker, Janosch „Europe divided over robot ´personhood`”, 11. April 2018, https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ (zuletzt abgerufen am 11. Mai 2018).

[116]  Delcker, J. „Europe divided over robot ´personhood`”, 11. April 2018, https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ (zuletzt abgerufen am 11. Mai 2018).

[117]  Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE.

[118]  Dies wäre die denknotwendige Folge, ungeachtet dessen, dass der entgegenstehende Wille erklärt wird: „52.  ist der Auffassung, dass das künftige legislative Rechtsinstrument – unabhängig davon, welche rechtliche Lösung für die zivilrechtliche Haftung für von Robotern verursachte Schäden in anderen Fällen als bei Sachschäden gilt – die Art oder das Ausmaß der Schäden, die abgedeckt werden können, in keiner Weise beschränken sollte, noch sollte es die Formen des Schadensersatzes, die der geschädigten Partei angeboten werden können, aus dem alleinigen Grund beschränken, dass der Schaden von einem nicht-menschlichen Akteur verursacht wird;“. Europäisches Parlament 2014-2019, P8_TA(2017)0051 – Zivilrechtliche Regelungen im Bereich Robotik – Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE – Auch wenn ein zusätzlicher Haftungstopf für Geschädigte geschaffen würde, würde dennoch eine Enthaftung der Hersteller und etwa „Trainer“ folgen, ob durch Erfüllung des Schadensersatzanspruchs durch den Roboter als Haftungsperson, oder im Wege der Schadloshaltung durch Regress beim selbigen.

[119]  „Ein europäisches Konzept für künstliche Intelligenz, III – Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens – Wie fördert die Kommission die Transparenz von Algorithmen?“, Europäische Kommission, Factsheet, 25. April 2018, http://europa.eu/rapid/press-release_MEMO-18-3363_de.htm (zuletzt abgerufen am 12. Mai 2018).

[120]  „Ein europäisches Konzept für künstliche Intelligenz, III – Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens – Wie fördert die Kommission die Transparenz von Algorithmen?“, Europäische Kommission, Factsheet, 25. April 2018, http://europa.eu/rapid/press-release_MEMO-18-3363_de.htm; Commission Staff Working document – Liability for emerging digital technologies, {COM(2018) 237 final},

 http://data.consilium.europa.eu/doc/document/ST-8507-2018-ADD-1/en/pdf  (zuletzt abgerufen am 12. Mai 2018).

[121]  Hendrix, S., „Is technology bringing history to life or distorting it?“, 10. Mai 2018, https://www.washingtonpost.com/news/retropolis/wp/2018/05/10/is-technology-bringing-history-to-life-or-distorting-it/?noredirect=on&utm_term=.891b4c10fed0 (zuletzt abgerufen am 14. Mai 2018).

 

Titelbild: © ApricotBrandy via Adobe Stock, #159088614