Ri 01/2019: neu mit weißer Farbe.

Ri 01/2019: Navigation
Ri 01/2019: Beitrag
In Bot eu Trust
Wenn sich sogar die Europäische Kommission von ihrer „Trustworthy AI“ distanziert
Claudia Otto
A. Hintergründe
Zu dem „Draft Ethical Guidelines for Trustworthy AI“[1] (im Folgenden „Entwurf“) der „High-Level Expert Group on Artificial Intelligence“ (im Folgenden „HLE-Group“) vom 18. Dezember 2018 hat sich die Autorin am 1. Februar 2019 fristgerecht und, als Mitglied der AI Alliance, sowohl direkt über die Futurium-Plattform als auch öffentlich[2] geäußert. Die Stellungnahme erfolgte in deutscher sowie englischer Sprache. Ziel war es, die Europäische Kommission und HLE-Group dazu anzuhalten, Rahmenbedingungen für die Klärung drängender ethischer Fragen und Kernmängel der Arbeit zu verbessern.
Positiv hervorgehoben wurde von der Autorin der Vorstoß der Europäischen Kommission, ethischen Grundfragen im Zusammenhang mit Technologien, die man gemeinhin mangels klarer Definition umschreibt als „Künstliche Intelligenz (KI)“, einen hohen Stellenwert einzuräumen. Auch wurde die Bildung eines Gremiums begrüßt, in dem verschiedene Altersgruppen, Berufe und Werdegänge, fachlich fundierte Ansichten, professionelle und persönliche Erfahrungen sowie Wissensstände zusammengeführt werden, um für die europäischen Bürger[3] und die europäische Gesellschaft auf valider sowie fester Grundlage die Zukunft zu gestalten.
Leider wurden die identifizierten Kernmängel sowohl des Entwurfs als auch des Verfahrens bei der Erstellung der „Ethics Guidelines For Trustworthy AI“[4] (im Folgenden „Guidelines“) nicht berücksichtigt oder behoben. Das HLE-Group-Mitglied Prof. Metzinger hat jedoch auch in der Stellungnahme der Autorin ausgeführte Kritikpunkte am 8. April 2019 im Tagesspiegel zur Grundlage seiner Distanzierung von den Guidelines gemacht.[5] Die HLE-Group hat an demselben Tag die Guidelines veröffentlicht. Die Europäische Kommission hat sich hiervon ebenfalls deutlich distanziert. ___STEADY_PAYWALL___
B. Die Stellungnahme vom 1. Februar 2019
I. Die aufgezeigten Mängel
1. Der straffe Zeitplan der Europäischen Kommission kostet Qualität und Sicherheit
Wie der Entwurf vor allem auf den Seiten 11, 12, 22, 24 und 28 zeigt, ist die Zeit für eine „Expertengruppe“ von 52 Mitgliedern viel zu knapp bemessen. Ethische Leitlinien für Europa sollten nicht auf Zeitdruck, sondern wissenschaftlich-gründlicher Recherche und umfassender Abwägung aufbauen.
Eine fruchtbare Konsultation der „Stakeholder“ innerhalb eines Zeitraums von knapp einem Monat kann ebenso wenig erfolgen. Im Jahresabschluss- und Feiertagezeitraum findet sich kaum hinreichend Zeit für eine fundierte Auseinandersetzung mit komplexen Fragestellungen zu „Künstlicher Intelligenz“ zugunsten der Zukunft der Menschen Europas. Erst recht nicht für die Deckung des offenkundig noch bestehenden Klärungsbedarfs. Die Konsultation kann keine belastbaren Ergebnisse liefern, wenn der Entwurf nur wenigen Stakeholdern, Betroffenen sollte man sagen, bekannt und zugänglich gemacht wird. Es gibt nur sehr wenige reflektierende Beiträge in der Presse. Diese verstecken sich zudem hinter einer Pay Wall. Die Suchmaschinenergebnisse sind spärlich und überwiegend nichtssagend. Und das angesichts eines Themas, das die Zukunft Europas und seiner Bürger bestimmen soll.
Die Europäische Kommission sollte daher ihren Zeitplan überdenken. Die HLE-Group sollte die Kommunikation verbessern.
2. Mangel (an Durchsetzung) ethischer Anforderungen an die HLE-Group selbst
Auf Seite 2 des Entwurfs findet sich ein Link zu einer Liste der 52 Mitglieder der HLE-Group samt verlinkten Kurzlebensläufen. Eine alphabetische Namensliste findet sich auf der letzten Dokumentseite. Es gibt zudem ein Register of Commission Expert Groups mit Erklärungen über die eigenen Interessen (Declaration of Interest, DOI).[6] Daneben gibt es das Transparency Register, aus dem Lobbyarbeit ersichtlich ist.[7] So weit, so gut.
Das Gewicht des Anteils der „High-Level“-Experten, welche offen die Anbieter- und damit primäre Adressatenseite von ethischen (lies: einschränkenden) Grundsätzen in Sachen „KI“ repräsentieren, ist mit 13 (Companies/Groups), also 25 Prozent, bereits sehr hoch. Ein Blick in das Transparency Register, etwa für Google, zeigt, man verfolge das Interesse „(…) to organize the world‘s information and make it universally accessible and useful“. Der Dienst am Europäischen Bürger erschließt sich hier nicht.
Die blumig geschriebenen Kurzlebensläufe von „Ehemaligen“ und selbsternannten „Experten“ stimmen nicht weniger skeptisch. So sind diese, gemäß Stichproben, aktueller als die DOI im Register. Dies darf jedoch ausweislich der Abschlusserklärung in der DOI nicht sein:

Abb. 1: Screenshot des relevanten Abschnitts
Die DOI und Kurzlebensläufe sind gar grob widersprüchlich. Der Chairman Ala-Pietilä etwa gibt in seiner DOI an, in den letzten fünf Jahren kein Mitglied eines Leitungs- oder Aufsichtsgremiums (2) bzw. kein sonstiger Vertreter von Interessen oder Ansichten (6) gewesen zu sein, welche einen potentiellen Konflikt mit der Aufgabe der HLE-Group begründen könnten. Laut eigenen Angaben[8] ist er dies sogar in vier Fällen:

Abb. 2: Screenshot des relevanten Abschnitts
Die SAP etwa wird im Transparency Register offen als Lobbyistin geführt und ist ebenso offen durch Herrn Noga in der HLE-Group vertreten. Warum diese Lücke durch den Chairman und die Europäische Kommission nicht geschlossen wird, ist nicht nachvollziehbar.
Der Disclaimer der Europäischen Kommission auf Seite 2 des Entwurfs,
„The contents of this working document are the sole responsibility of the High-Level Expert Group on Artificial Intelligence (AI HLE-Group). Although staff of the Commission services facilitated the preparation of the Guidelines, the views expressed in this document reflect the opinion of the AI HLE-Group, and may not in any circumstances be regarded as stating an official position of the European Commission.“
verwundert, wenn ein Mitglied der HLE-Group auf den zweiten oder dritten Blick als bei der Europäischen Kommission tätig erkennbar wird:[9]

Abb. 3: Screenshot des relevanten Abschnitts
Die über das Register of Commission Expert Groups abrufbare DOI bestätigt eine „Experten“-, nicht jedoch Sekretariats-Tätigkeit von Frau Bouarfa für die Europäische Kommission bis 2020. Sie bestätigt auch erhebliche wirtschaftliche Interessen aufgrund eines Investments. Das ist transparent, aber aufseiten der Kommission nicht konsequent. Denn gemäß Annex I – Classification Form zum „CALL FOR APPLICATIONS FOR THE SELECTION OF MEMBERS OF THE HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE“[10] wird Unabhängigkeit und Handeln im öffentlichen Interesse gefordert:

Abb. 4: Screenshot des relevanten Abschnitts
Unabhängigkeit und das Nichtverfolgen anderer Interessen wird nur ganz offensichtlich nicht näher überprüft und durchgesetzt.
Kritische Verbindungen und Geldflüsse, ob bereits entstanden oder geplant, so wie etwa von Facebook zu der auch in der HLE-Group vertretenen Technischen Universität München,[11] sollten ebenfalls (auch nachträglich) offengelegt werden. Selbst geringfügige Beeinflussungsmöglichkeiten genügen, um Zweifel an der Unabhängigkeit der HLE-Group zu begründen. Daher sollte jedes einzelne HLE-Group-Mitglied weniger an der inflationär genutzten und daher nichtssagenden „Experten“-Bezeichnung, als an seinen Verbindungen zu Unternehmen gemessen werden, deren Geschäftsmodelle durch die „Ethical Guidelines“ und hierauf zukünftig aufbauende Dokumentation der EU betroffen sind oder sein können.
Die genannten Umstände lassen zweifeln an einer unabhängigen, am Wohle der Menschen orientierten Federführung durch die HLE-Group. Wer über Ethik und die Zukunft von Menschenwohl entscheidet, sollte sich selbst ethischen Grundsätzen unterwerfen. Die Europäische Kommission muss diese Anforderungen auch wirksam prüfen und durchsetzen. Transparenzregister zu führen allein genügt nicht, wenn die wichtigen Informationen nicht aktuell, widersprüchlich und nur durch erheblichen Prüfaufwand zusammentragbar sind.
3. Mangel an sachlicher Distanz; werbliche Sprache und Etablierung eines irreführenden KI-Begriffs
Einem Papier über ethische Grundsätze, welches die Zukunft der Menschen unter der Prämisse „Trustworthy AI will be our north star“ bewertet, fehlt es an sachlicher Distanz. Emotionalisierung durch romantische Ansätze, Storytelling im Roman- und Kinderbuchstil[12] und die stetig wiederholte Verknüpfung von „AI“ und „trustworthy“, beginnend im Summary und bei 93-facher (!) Wiederholung im ganzen Dokument, sind außerordentlich bedenklich. Dies v.a. unter Verweis auf Seiten 11 bis 13 des Entwurfs, auf denen die HLE-Group nur 14 Zeilen für autonome Waffensysteme opfert und zeigt, dass man potentielle negative Langzeitfolgen des Einsatzes von „Künstlicher Intelligenz“ weder kennt noch eruiert hat. An dieser Stelle gäbe es einschlägige wissenschaftliche Literatur, die ausgewertet hätte werden können. Buzzwords und Marketing-Begriffe wie „Trustworthy AI“ können keine notwendige Prüfung und Langzeitfolgenbetrachtung ersetzen. Noch dazu, wenn die Möglichkeit der hier ausdrücklich benötigten Stakeholder-Rückmeldungen auf ein Zeitfenster von nur einem Monat begrenzt wird.
Wer „Trustworthy AI“ durch zahlreiche Wiederholungen (nochmals: 93, auf 33 Seiten) als Begriff begründet, schafft eine Illusion von Wahrheit. Eine Legende. Durch zahlreiche Wiederholungen entsteht dann eine Wahrheit, die niemand mehr anzweifelt.[13] Auch dann, wenn hier zwischen den Zeilen und fettgedruckten „Trustworthy AI“-Erwähnungen steht, dass dafür ein paar freiwillige Anforderungen erfüllt sein müssen. Das ursprüngliche Dokument liest der gemeine Leser nicht mehr, wenn sich „Trustworthy AI“ erst einmal in den Köpfen festgesetzt hat. So wie er keine umfassenden und zersplittert verfügbaren Nutzungsbedingungen und Datenschutzerklärungen von Anbietern wie Google[14] oder Facebook[15] liest und verstehen kann, dahingehend, wie diese „Vertrauenswürdigkeit“ (trustworthiness) auslegen.
Ethische Leitlinien haben sich an wissenschaftlichen und ethischen Grundsätzen zu orientieren, nicht an persönlichen Wünschen, Empfindungen und mehr oder weniger transparenten Motiven der HLE-Group. Sie dürfen kein Marketing-Konzept zur Verführung und gar Irreführung der Menschen Europas darstellen.
4. „Trustworthy AI“ impliziert Maschinenverantwortlichkeit
Die HLE-Group spricht im Fließtext von menschenzentrierter KI und menschlicher Verantwortlichkeit. Gleichzeitig sollen Menschen Maschinen Vertrauen entgegenbringen. Damit auch niemand am Vertrauensgrund zweifelt, wird „Trustworthy AI“ 93 Mal wiederholt.
Welche Vertrauensbeziehung zwischen Mensch und Maschine stellen sich die Experten hier vor? Vertrauen und Wissen schließen sich grundsätzlich aus. Menschen, insbesondere Verbraucher, die mit technischen Produkten in Berührung kommen, müssen nicht vertrauen, sondern gemäß europäischem Recht umfassend informiert werden. Etwa darüber,
- wer der Hersteller ist,
- was das Produkt kann,
- ob es die erforderliche Sicherheit aufweist,
- wie sie es nutzen sollen,
- welche Gefahren sich aus der Nutzung, ggf. Falschnutzung ergeben,
- für wie lange und mit welchen Begleitpflichten die Nutzung erfolgen kann oder sollte und
- welche Rechte sich aus dem der Nutzung vorangehenden notwendigen Vertrag ergeben.
Im Zusammenhang mit „AI“ Vertrauen zu verlangen, ist eine Absage an die notwendige Information. Und an geltendes Recht.
Doch der Entwurf ist nicht nur deshalb paradox. Eine Bewertung der Verlagerung von Haftung auf eine „elektronische Person“ durch die HLE-Group als ethisch oder unethisch unterbleibt, während der Begriff „Trustworthy AI“ maschinelle Verantwortung, als Konsequenz der „Vertrauensbeziehung“, notwendigerweise beinhaltet. Auch hier entsteht der Eindruck der Verfolgung sachfremder Ziele, nicht jedoch der Humanzentrierung.
Die Schaffung einer dritten Person[16], als Haftungssubjekt nach der Idee des Europäischen Parlaments,[17] erstickt die notwendige Nachvollziehbarkeit[18] von schadensauslösenden Entscheidungen „künstlicher Intelligenz“ im Keim.[19] Es würde der Anreiz fehlen, potentiell schadhafte Entscheidungen „künstlicher Intelligenz“ auf einen Verantwortlichen zurückführbar zu machen und damit im Eigeninteresse zu verhindern. Jeder Anreiz zur Verbesserung und zum Schutz weiterer Betroffener würde genommen. Die Folge wäre eine menschenbedrohliche Entwicklung von „Künstlicher Intelligenz“, der die HLE-Group eigentlich entgegenwirken soll.
Tiere sind ein einziges Mal im Entwurf erwähnt. Die Umwelt als Schutzgut kommt ebenfalls kaum vor. Beide entwickeln kein Vertrauen zu Maschinen. Dennoch sind beide anhand ethischer Grundsätze zu schützen. Beide werden durch Menschen geschädigt, nicht durch die von Menschen eingesetzten Maschinen.
Die HLE-Group muss sich daher klar positionieren, etwa dahingehend, dass das Konstrukt der „elektronischen Person“ den Zielen Europas einen Bärendienst erweisen würde.
5. Der zugrunde gelegte Begriff „Künstlicher Intelligenz“ ist zu eng und futuristisch
Die HLE-Group legt den ethischen Grundsätzen ein Verständnis von „Künstlicher Intelligenz“ zugrunde, das erhebliche Probleme aufwirft:
„Artificial intelligence (AI) refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions.
As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems).“[20]
Beide Umschreibungen sind (zusammen gelesen) viel zu eng gefasst und decken damit wesentliche Bereiche von den Menschen als solche wahrgenommener „Künstlicher Intelligenz“ nicht ab. Sog. schwache KI[21] wird vom ersten Absatz weitgehend nicht erfasst, wirft aber in der Vermarktung als „Künstliche Intelligenz“ ethische Fragen auf, die von der HLE-Group unadressiert und ungelöst bleiben. Für ethische Grundsätze sollte ein möglichst weiter „KI“-Begriff gelten, um Wertungswidersprüche, Schäden (z.B. infolge des Hervorrufens einer Fehlvorstellung, i.e. Täuschung) und negative Auswirkungen auf die Wirtschaft (i.e. unlauterer Wettbewerb durch irreführende Angaben) zu vermeiden.
„Reasoning“, also eine Ausprägung von Denkvermögen, der Begriffsbestimmung von „Künstlicher Intelligenz“ zugrunde zu legen, zeigt, dass die HLE-Group ein phantastisches Verständnis von „Künstlicher Intelligenz“ hat. Es zeigt, dass sie aktuelle Entwicklungen außer Acht lässt und wissenschaftliche Erkenntnisse missachtet. Sie behandelt sog. starke KI[22], wie sog. Machine Reasoning ohne jede und damit ohne Langzeiterfahrung, als zu regelnden Standard.
Die HLE-Group legt damit menschliche Intelligenz dem Begriff der „Künstlichen Intelligenz“ zugrunde. Um zu verdeutlichen, dass die HLE-Group wirklichkeitsferne Anforderungen an „Künstliche Intelligenz“ stellt, wird der erste Absatz des obigen Glossary-Abschnitts durch Ersetzungen, erkennbar an eckigen Klammern, leicht verändert:
„[Analyst (A)] refers to [a human] designed by humans that, given a complex goal, act[s] in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal.
[Children] can also be [taught] to learn to adapt their behaviour by analysing how the environment is affected by their previous actions.“
Das bedeutet, „Künstliche Intelligenz“ muss erst auf dem Niveau menschlicher Intelligenz angekommen sein, damit sie ethischen Grundsätzen und Richtlinien unterliegen kann. Das wird jedoch nicht demnächst der Fall sein. Und widerspricht damit Intention sowie Ethik.
6. Warum sollen die ethischen Anforderungen an „Künstliche Intelligenz“ hinter denen der Arzneimittelindustrie zurückbleiben?
„It strives to facilitate and enable “Trustworthy AI made in Europe” which will enhance the well-being of European citizens.“[23]
Wir sprechen vom Wohlergehen, von Gesundheit und Leben der Menschen (sowie Tiere) in Europa. Von technischen Lösungen und Anwendungen, die auch im Gesundheitsbereich eingesetzt werden können und sollen. Selbst wenn sie noch keine „Künstliche Intelligenz“ im Sinne des Entwurfs darstellen. In der Arzneimittelindustrie wird, u.a. neben umfassender Transparenz durch Aufklärung, akribisch darauf geachtet, dass Zuwendungen zur Förderung (auch-) menschenwohlorientierter Forschung und Entwicklung sowie Umsatzinteressen nicht verquickt werden (sog. Trennungsprinzip).
Diese ethischen Grundsätze müssen auch für die Entwicklung „Künstlicher Intelligenz“, unabhängig von der Branche, gelten. Umsatzinteressen dürfen erst recht nicht die ethischen Grundsätze diktieren.
II. Zwischenfazit
Zusammenzufassen war daher, dass die im Entwurf vorgegebenen ethischen Grundsätze und Guidelines wegen ihrer problematischen Rahmenbedingungen fehlgehen. Dem Entwurf lag die realitätsferne Erwartung von menschlicher Intelligenz an Maschinen zugrunde. Er begründete und verfestigte in der Folge eine unrealistische Vorstellung einer „Trustworthy AI“, die es (so noch) gar nicht gibt. Insofern war und ist der extrem straffe Zeitplan der Europäischen Kommission sachlich nicht nachvollziehbar.
Die Mitglieder der HLE-Group sollten sich selbst ethischen Grundsätzen verpflichten und hiernach handeln. Die Europäische Kommission muss deren Einhaltung überwachen und durchsetzen. Der Gesamteindruck war ein unangenehmer: Wissenschaftliche Erkenntnisse stehen im Hintergrund. Gewichtig im Vordergrund standen stattdessen die Etablierung einer Marke „Trustworthy AI made in Europe“ zugunsten persönlicher oder vertretener finanzieller Interessen. Diese auf künstlich geschaffenem Vertrauen aufbauende Marke kommt vor allem Herstellern und Anbietern von „künstlich intelligenten“ Produkten zugute, die keine für die Kauf- oder Nutzungsentscheidung, Erklärbarkeit und/oder Nachvollziehbarkeit von „künstlich intelligenten“ Entscheidungen erforderlichen Informationen bereitstellen wollen.
Es wurde von der Autorin ausdrücklich angeregt, dass dem lobenswerten Vorhaben „ethische Rahmenbedingungen und Anforderungen an Künstliche Intelligenz in Europa“ die Zeit eingeräumt wird, die es entsprechend seiner Bedeutung für die Menschen, Tiere und Umwelt in Europa braucht. Auf übereilten Entscheidungen baut man keinen gesunden Wettbewerb auf, erst recht nicht, wenn der hier begründete Begriff „Trustworthy AI“ für sich allein schon irreführender Natur ist.
C. Die Guidelines
Die Autorin hat den Entwurf vom 18. Dezember 2018 und die finalisierten Guidelines vom 8. April 2019 verglichen und Folgende als wesentlich hervorzuhebende Punkte festgestellt:
I. Die Kommission distanziert sich und erklärt die HLE-Group für unabhängig
Besonders auffällig ist die Änderung auf dem Deckblatt: Der Bezug zur Europäischen Kommission wurde beseitigt und die HLE-Group aus- und nachdrücklich als „unabhängig“ ausgewiesen (Abb. 5).
Die HLE-Group ist nur noch „set up by the European Commission“ (Abb. 6). Und sich eigentlich gar nicht einig (ebenda).

Abb. 5: Screenshot des Vergleichsberichts (Titel)

Abb. 6: Screenshot des Vergleichsberichts, S. 2
Die DOIs, insbesondere von der bis 2020 für die Europäische Kommission tätigen Frau Bouafa, wurden nicht aktualisiert oder ernstgenommen, aber zwischenzeitlich geschwärzt. Das von der Autorin angesprochene Problem mangelnder Unabhängigkeit der „Experten“ und mangelhafter Transparenz hinsichtlich derer Beteiligungen in der Wirtschaft wurde von der Kommission schlichtweg nicht angegangen, sondern durch die „Unabhängigkeitserklärung“ gelöst.
II. Künstlich intelligent ist nunmehr alles vom Staubsaugerroboter bis zum Menschen
Die Autorin monierte am 1. Februar 2019 die Realitätsferne des von der HLE-Group im Entwurf bestimmten Begriffs „Künstlicher Intelligenz“. In den finalen Guidelines lautet die Definition nun wie folgt (Änderungen wurden im Wege des Vergleichens rot eingefärbt und unterstrichen): [24]
Die HLE-Group hat den Begriff Künstlicher Intelligenz nicht klarer, sondern noch unklarer gefasst. Sie geht womöglich davon aus, durch die Ergänzung des Begriffs „Software“ Klarstellung erreicht zu haben. Das Gegenteil ist jedoch der Fall. Es fehlt bereits an einer einheitlichen und klaren Definition von „Software“. Software ist im Grunde die Gesamtheit von Informationen, die man benötigt, um Hardware nutzbar zu machen. Auch das menschliche Gehirn verarbeitet Daten (Software), die seine Sinnesorgane gesammelt haben (Software), um sie über das zentrale Nervensystem (Software) für den Körper (Hardware) nutzbar zu machen – eben nur in elektrisch-biochemischer Art und Weise. Die neue „Definition“, die noch chaotischer und weniger verständlich ist, macht im Übrigen den einfachsten Staubsaugerroboter[25] zu einem Paradebeispiel für Künstliche Intelligenz:
“Artificial intelligence (AI) (…) designed by humans (…) that, given a complex goal, act (…) by perceiving their environment through data acquisition, or processing the information, (…) and deciding the best action(s) to take to achieve the given goal.”
Künstlich intelligent ist nunmehr alles. Vom Staubsaugerroboter bis hin zum (ggf. technically enhanced) Menschen. Menschlich intelligent wäre es beispielsweise gewesen, den Begriff „elektronisch“ und/oder „Kommunikationstechnik“ bzw. „Kommunikationstechnologie“ in die Definition aufzunehmen, um eine klare Abgrenzung zu Synapsenvorgängen, i.e. elektrischen Informationsübertragungen im Rahmen der Neurowissenschaften zu ermöglichen.
Der neue Zusatz in Klammern, „and possibly also hardware“, zeigt nach Ansicht der Autorin, dass keinerlei Verständnis für die Technologien vorherrscht, die sich hinter dem Begriff „Künstliche Intelligenz“ verbergen. Software kann ohne Hardware gar nicht ausgeführt werden.
Im Endeffekt ist eine völlig wirre KI-Beschreibung herausgekommen, die als Definition ethischen Grundfragen nicht zugrunde gelegt werden kann.
III. Häufigkeit der Wiederholung „Trustworty AI“ gestiegen
Die Autorin hatte in ihrer Stellungnahme vom 1. Februar 2019 moniert, dass der irreleitende Begriff „Trustworthy AI“ 93 Mal im 33-seitigen Draft der HLE-Group wiederholt wurde.
Im finalen Dokument sind es nunmehr 118 Wiederholungen auf 38 Seiten.
IV. Ausführungen zu LAWS (Lethal Autonomous Weapon Systems) wurden reduziert
Im Hinblick auf die von der Autorin als unpassend kurz ausgefallen bemängelten Ethikfragen zu KI-Waffensystemen (LAWS) hat die HLE-Group hingegen zielgerichtet den Prüfungsaufwand reduziert und folgenden, Diskussionsbedarf aufzeigenden Einleitungssatz gestrichen:
„LAWS can operate without meaningful human control over the critical functions of selecting and attacking individual targets. Ultimately, human beings are, and must remain, responsible and accountable for all casualties.“ [26]
Dementsprechend hat sie nachstehende streitbare Feststellung aus dem Entwurf entfernt:
„Note that, on the other hand, in an armed conflict LAWS can reduce collateral damage, e.g. saving selectively children.“ [27]
Interessant ist dieser Umstand vor allem vor dem Hintergrund, dass Airbus, Abteilung Defense and Space, durch Herrn Brunessaux in der HLE-Group vertreten ist. Airbus erwartet auch aus Deutschland Milliardenaufträge für Kampfjets, wie das Handelsblatt am 13. Februar 2019 berichtete.[28] Hiernach fordert Airbus-Rüstungschef Hoke, angesichts eines möglichen Auftragsvolumens von mehr als 10 Milliarden EUR, von Europas Regierungen eine industriepolitische Entscheidung für europäische Technik. Für Airbus– und nicht etwa Boeing-Kampfjets (F-18) spricht nach seinen Angaben:
„Die neue Maschine soll mit Schwärmen von Drohnen fliegen können, unterstützt von Künstlicher Intelligenz.“[29]
Gemeint sind sog. Future Combat Air Systems (FCAS), also zukünftige Luftkampfsysteme. Diese dienen nicht nur der Beobachtung, sondern auch dem möglichen Mitführen und Einsatz mitgeführter Waffen. Die Bundesregierung lehnt dies zum gegenwärtigen Zeitpunkt ab und setzt sich bei den Vereinten Nationen dafür ein, autonome Waffen zu ächten.[30]
Der Airbus-Kampfjet als „Trustworthy AI“. Da klingen LAWS doch fast wie Toys.
D. Distanzierung von den Guidelines durch HLE-Group-Mitglieder selbst
Das ungute Gefühl bestätigt auch der sich am 8. April 2019 im Tagesspiegel äußernde Thomas Metzinger, Professor für theoretische Philosophie an der Universität Mainz und Mitglied der HLE-Group.[31] In seinem Gastbeitrag kritisiert er die Guidelines und damit seine eigene Arbeit „scharf“.
So beanstandet er insbesondere die von der Autorin bereits am 1. Februar 2019 monierte Begriffswahl der „vertrauenswürdigen KI“ und den Mangel an Vertrauensbeziehung zwischen Mensch und Maschine:
„Der zugrundeliegende Leitgedanke einer „vertrauenswürdigen KI“ ist zunächst schon mal begrifflicher Unsinn. Maschinen sind nicht vertrauenswürdig (…).“[32]
Prof. Metzinger führt in seinem Gastbeitrag weiter aus zu dem von der Autorin am 1. Februar 2019 mitgeteilten Mangel an sachlicher Distanz, der unpassenden werblichen Sprache und Etablierung eines irreleitenden KI-Begriffs:
„Die Geschichte von der Trustworthy AI ist eine von der Industrie erdachte Marketing-Narrative, eine Gute-Nacht-Geschichte für die Kunden von morgen. In Wirklichkeit geht es darum, Zukunftsmärkte entwickeln und Ethikdebatten als elegante öffentliche Dekoration für eine groß angelegte Investitionsstrategie zu benutzen. Zumindest ist das der Eindruck, der sich mir nach neun Monaten Arbeit an den Richtlinien aufdrängt.“ [33]
Dass sich derselbe Eindruck einem HLE-Group-Mitglied nicht früher aufgedrängt hat, ist verwunderlich. Man beachte hierbei vor allem die Darstellung als Gute-Nacht-Geschichte und, im Vergleich hierzu, die Umschreibung der Autorin vom 1. Februar 2019 als „Storytelling im Roman- und Kinderbuchstil“, nicht zuletzt den Titel ihrer Stellungnahme: „North Star Trustworthy AI – Eine bedenkliche Marketing-Strategie made in Europe“.
Prof. Metzinger ergänzt darüber hinaus zur von der Autorin längst aufgezeigten Problematik der (daten-)industriell dominierten HLE-Group,
„Die Zusammensetzung der Gruppe, die sie erarbeitet hat, ist Teil des Problems: Sie bestand aus vier Ethikern und 48 Nicht-Ethikern – nämlich Vertretern aus der Politik, den Universitäten, der Zivilgesellschaft und vor allem aus der Industrie. (…) Wenn man will, dass die europäische KI-Industrie sich an ethische Regeln hält, dann muss man ihr auch wirklich zuhören und sie von Anfang an mit ins Boot holen. Es gibt viele kluge Leute dort, man darf ihnen aber nicht das Ruder überlassen.“ [34]
und entschuldigt sich zugleich, dass er gegen autonome Waffensysteme nicht genug getan hat. Diese waren aber auch nur ein „naheliegender Punkt“ auf seiner Liste.[35] Also keine zentrale, drängende Frage.
Im Vergleich zum Vorwurf einer realitätsfernen Erwartung von menschlicher Intelligenz an Maschinen sowie Begründung und Verfestigung einer unrealistischen Vorstellung von „Trustworthy AI“, geäußert durch die Autorin am 1. Februar 2019, kommentiert Prof. Metzinger:
„Die Richtlinien sind lauwarm, kurzsichtig und vorsätzlich vage. Sie übertünchen schwierige Probleme („explainability“) durch Rhetorik, verletzen elementare Rationalitätsprinzipien und sie geben vor, Dinge zu wissen, die in Wirklichkeit einfach niemand weiß.“ [36]
Zu den von der Autorin ebenfalls aufgezeigten, problematischen und nicht offengelegten Verbindungen der HLE-Group zu Facebook und Google als eigentliche Adressaten von ethischen Guidelines äußert sich Prof. Metzinger ebenfalls:
„Die Industrie baut aber gleichzeitig eine „Ethik-Waschmaschine“ nach der anderen: Facebook hat in die TU München investiert – in ein Institut, das KI-Ethiker ausbilden soll, Google hatte die Philosophen Joanna Bryson und Luciano Floridi für ein „Ethics Panel“ – das Ende vergangener Woche überraschend eingestellt wurde – engagiert. Wäre das nicht so gekommen, hätte Google über Floridi – der auch Mitglied der HLE-Group AI ist – direkten Zugriff auf den Prozess bekommen, in dem die Gruppe ab diesem Monat die politischen und die Investitionsempfehlungen für die Europäische Union erarbeitet. Das wäre ein strategischer Triumph des amerikanischen Großkonzerns gewesen.“ [37]
Es ist doch verblüffend, wie sehr sich die Stellungnahme der Autorin hier inhaltlich in dem Versuch, sich als an den Guidelines Mitwirkender zu entlasten, wiederfindet, jedoch nicht in den Guidelines selbst.
Jedes HLE-Group-Mitglied trägt Verantwortung für den Inhalt der Guidelines. Auch und insbesondere Prof. Metzinger, dem sein Versagen bewusst ist.
E. Schlussfolgerungen
Es drängt sich bei dem Vergleich von Entwurf und Guidelines auf, dass sich die Europäische Kommission durch das Herausstellen der Unabhängigkeit der HLE-Group von den Guidelines distanziert hat. Das ist aufgrund der offensichtlich bekannt gewordenen, (unbehobenen) inhaltlichen und verfahrensbezogenen Mängel auch nachvollziehbar.
Es bestand und besteht auch kein wirklicher Anreiz zur Änderung, denn die Guidelines sind nicht verbindlich, sondern freiwillig:
„Stakeholders committed towards achieving Trustworthy AI can voluntarily opt to use these Guidelines as a method to operationalise their commitment (…)“[38]
Sie stellen ein Europäisches Marketing-Konzept dar, mehr nicht.
Da selbst HLE-Group-Mitglieder die Vagheit, Unsinnigkeit und damit irreführende Natur von „Trustworthy AI“ bestätigen, steht zu befürchten, dass diese Guidelines einen Eingriff in den freien Wettbewerb und damit in die Europäischen
Grundfreiheiten bedeuten könnten. Wer in Zukunft mit „vertrauenswürdiger KI“ wirbt, kann Wettbewerber im Markt gezielt verdrängen: Die Kommission hat sich vielleicht auch deshalb distanziert[39] und spricht lieber von „ethical AI“, in Verbindung mit Selbstverständlichkeiten:

Abb. 8: Screenshot via LinkedIn vom 13. April 2019 (Abruf am 19. April 2019)
A
A
[1] https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
(zuletzt abgerufen am 14. April 2019).
[2] https://cot.legal/cot-legal-ai-stellungnahme.html.
[3] Personenbezeichnungen in diesem Text sind geschlechtsneutral gemeint. Sie sollen als Äquivalent für „(der) Mensch“ verstanden werden.
[4] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (zuletzt abgerufen am 14. April 2019).
[5] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[6] http://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupDetail&groupID=3591 (zuletzt abgerufen am 1. Februar 2019).
[7] http://ec.europa.eu/transparencyregister/public/consultation/displaylobbyist.do?id=03181945560-59&locale=en (zuletzt abgerufen am 1. Februar 2019).
[8] https://ec.europa.eu/futurium/en/european-ai-alliance/european-ai-alliance-steering-group (zuletzt abgerufen am 1. Februar 2019).
[9] https://ec.europa.eu/futurium/en/european-ai-alliance/european-ai-alliance-steering-group (zuletzt abgerufen am 1. Februar 2019).
[10] http://ec.europa.eu/transparency/regexpert/index.cfm?do=calls.calls_for_app (zuletzt abgerufen am 1. Februar 2019).
[11] Thiel, „Geschlossener Wettbewerb“, FAZ vom 30. Januar 2019, https://www.faz.net/aktuell/feuilleton/hoch-schule/geschlossener-wettbewerb-die-tu-muenchen-erlaeutert-ihren-facebook-deal-16013071.html (zuletzt abgerufen am 1. Februar 2019).
[12] Lastella, „Nordsternfunkeln“; Bickel, „Was ist mit Nordstern los?“, „Reitlehrer Lars Hansen – Alles für Nordstern“; Reynolds, „The North Star“; Root, „One North Star – A Counting book“ und viele mehr.
[13] Le Bon, „Psychologie der Massen“ von 1895 (!), Auszüge:
„Die reine einfache Behauptung ohne Begründung und jeden Beweis ist ein sicheres Mittel, um der Massenseele eine Idee einzuflößen. Je bestimmter eine Behauptung, je freier sie von Beweisen und Belegen ist, desto mehr Ehrfurcht erweckt sie.“ (Seite 170), „Die Behauptung hat aber nur dann wirklich Einfluss, wenn sie ständig wiederholt wird, und zwar möglichst mit denselben Ausdrücken. Napoleon sagte, es gäbe nur eine ernsthafte Redefigur: die Wiederholung. Das Wiederholte befestigt sich so sehr in den Köpfen, dass es schließlich als eine bewiesene Wahrheit angenommen wird.“, (Seite 171); eBook-Originalausgabe © 05/2013 by eClassica.
[14] Vgl. CNIL-Entscheidung vom 21. Januar 2019, https://www.cnil.fr/en/cnils-restricted-committee-imposes-financial-penalty-50-million-euros-against-google-llc (englische Zusammenfassung), zuletzt abgerufen am 1. Februar 2019.
[15] Siehe Fn 8.
[16] Neben der juristischen und natürlichen Person.
[17] Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)),
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (zuletzt abgerufen am 1. Februar 2019).
[18] Otto, Ri 2018, 68 ff.; Otto, Ri 2018, 136 ff.
[19] Otto, Ri 2018, 136 (139).
[20] Entwurf, Seite iv.
[21] Zum Begriff: Otto, Ri 2018, 68 (72).
[22] Zum Begriff: Otto, Ri 2018, 68 (72).
[23] Entwurf, Seite iii.
[24] Guidelines, Seite 36.
[25] Otto, Ri 2018, 68 (70).
[26] Entwurf, Seite 12.
[27] Entwurf, Seite 12.
[28] „Airbus erwartet aus Deutschland Milliardenaufträge für Kampfjets“, Handelsblatt vom 13. Februar 2019, https://www.handelsblatt.com/unternehmen/industrie/dirk-hoke-im-interview-airbus-erwartet-aus-deutschland-milliardenauftraege-fuer-kampfjets/23976998.html (zuletzt abgerufen am 14. April 2019).
[29] „Airbus erwartet aus Deutschland Milliardenaufträge für Kampfjets“, Handelsblatt vom 13. Februar 2019, https://www.handelsblatt.com/unternehmen/industrie/dirk-hoke-im-interview-airbus-erwartet-aus-deutschland-milliardenauftraege-fuer-kampfjets/23976998.html (zuletzt abgerufen am 14. April 2019).
[30] Monroy,„Airbus arbeitet an tödlichem Drohnenschwarm“, vom 18. September 2018, Heise, https://www.heise.de/tp/features/Airbus-arbeitet-an-toedlichem-Drohnenschwarm-4167056.html?seite=all (zuletzt abgerufen am 14. April 2019).
[31] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[32] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[33] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[34] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[35] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[36] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[37] „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).
[38] Guidelines, Seite 5.
[39] Vgl. „drafted by a group of experts“.
Titelbild: © Ivan via Adobe Stock, #196504061