Ri 01/2019: neu mit weißer Farbe.

Ri 01/2019: Navigation

Ri 01/2019: Beitrag

Was du erblickst, ist Schatten des widerstrahlenden Bildes.[1]

Europas „human-centric Trustworthy AI“ als Spiegel des Narcissus

Claudia Otto

A. Ethische Leitlinien orientiert an den Interessen eines (männlichen) Erwachsenen

Die im vorstehenden Artikel „In Bot eu Trust“[2] diskutierten „Ethics Guidelines For Trustworthy AI“[3] (im Folgenden „Guidelines“), die „menschenzentrierte vertrauenswürdige Künstliche Intelligenz“ als Europäische Marke etablieren sollen, orientieren sich an den Interessen Erwachsener und erwähnen Kinder gerade einmal am Rande. Ganze sieben Mal, davon sind zwei identische Doppelerwähnungen, werden Kinder („child*ren/hood“) in den Guidelines genannt:

___STEADY_PAYWALL___

„Pay particular attention to situations involving more vulnerable groups such as children, persons with disabilities and others that have historically been disadvantaged or are at risk of exclusion (…)“[4]

„See articles 24 to 27 of the Charter of Fundamental Rights of the EU (EU Charter), dealing with the rights of the child and the elderly, the integration of persons with disabilities and workers’ rights. See also article 38 dealing with consumer protection.“[5]

„This also requires adequate respect for potentially vulnerable persons and groups,21 such as workers, women, persons with disabilities, ethnic minorities, children, consumers or others at risk of exclusion.“[6] 

„See for instance the EU-funded project developing AI-based software that enables robots to interact more effectively with autistic children in human-led therapy sessions, helping to improve their social and communication skills: (…).“[7]

„No commonly accepted or widely agreed legal definition of vulnerable persons exists, due to their heterogeneity. What constitutes a vulnerable person or group is often context-specific. Temporary life events (such as childhood or illness), (…).“[8]

Ein Kind zu sein bedeutet nach Ansicht der HLE-Group[9] offenbar, vor allem ein (geistig) schwacher Mensch mit verminderten Fähigkeiten und krankheitsähnlichen, körperlichen Einschränkungen zu sein. Erschreckend, bedenkt man, dass Kinder mit Produkten sog. schwacher KI[10] aufwachsen, mit ihr und von ihr lernen und viel stärker mit Technologie verbunden sind als wir heute Erwachsenen es je sein werden.

Da verwundert es gar nicht mehr, dass Frauen in den Guidelines[11] ebenfalls als „schwach“ bzw. „verwundbar“ („vulnerable“) dargestellt werden.

Dieser kleine, an angeblich schwachen und besonders verletzlichen Minderheiten orientierte, flüchtige verengte Seitenblick auf Kinder und die Nichtbeachtung ihrer berechtigten Interessen sind weder zeitgemäß noch zukunftsgerichtet.

Die sog. Trustworthy AI Europas ist nicht menschenzentriert. Sie ist von alten Rollenbildern geprägt und wirtschaftsinteressenzentriert. Die sog. Experten verkennen dementsprechend die sich für Kinder ergebenden Gefahren, etwa ausgehend von vernetztem Spielzeug.

B. Die Realität von Kindern im 21. Jahrhundert

I. Kinder sind die Entwickler, Dienstleister und Nutzer von morgen

Europa und Deutschland sehen sich im Rennen um die digitale Vorherrschaft im Rückstand, gar zusteuernd auf ein digitales Mittelalter.[12] Sie wollen im Bereich Künstliche Intelligenz die rasch voranschreitenden USA und China in naher Zukunft ein- und überholen. Insbesondere die Forschung und Entwicklung sollen erheblich aus- und aufgebaut werden.

Langfristig gesehen, bedeutet dies auch das Einbinden der Kleinsten: der Kinder. Schließlich sind diese die Entwickler, Dienstleister und Nutzer von morgen. In China wurde deshalb im Jahre 2018 eine 33-teilige Lehrbuchreihe „Artificial Intelligence“ für Kinder – vom Kindergarten bis zur Oberstufe – eingeführt.[13] Diese sind mit einer „AI e-learning“ Plattform verbunden, die über den Rechner oder WeChat zugänglich ist. Daran mitgewirkt haben Google, das Institute of Automation of the Chinese Academy of Sciences und namhafte chinesische Universitäten. Die Initiative ging vom China Education Technology Association Smart Learning Committee und der UNESCO aus.

Wo Chancen sind, sind Risiken nicht fern. Denn der Fortschritt von Künstlicher Intelligenz, deren Erfolg schwerpunktmäßig auf Daten basiert, hat auch Schattenseiten:

So wurde z.B. kürzlich publik, dass Facebook Minderjährige dafür bezahlt hat, Apps auf ihre Smartphones herunterzuladen und Root-Zugriff zu gewähren.[14] Die über die VPN-App auf diese Weise erhobenen Daten konnten u.a. private Nachrichten in Social Media-Apps, Chats aus Instant Messaging-Apps, einschließlich Fotos und Videos, die an andere gesendet wurden, E-Mails, Websuchen, Webbrowsing-Aktivitäten und aktuelle Standortinformationen beinhalten.[15] Bis zu 20 US-Dollar, in e-gift-Tokenform,[16] gab es im Austausch für das digitale Leben.[17] Welche personenbezogenen Daten genau Facebook mithilfe der App zu sammeln beabsichtigte, darüber wurde der kindliche Adressat nicht aufgeklärt.[18] Auch ein Nachweis elterlicher Einwilligung bzw. Zustimmung war nicht erforderlich, wie ein BBC-Journalist im Rahmen seiner Recherche feststellte.[19]

Unabhängig davon, welche Ausprägung[20] von Künstlicher Intelligenz hinter den genannten Entwicklungen steht, sie alle haben etwas gemeinsam:

Personenbezogene Daten von Kindern werden auch unmittelbar bei ihnen erhoben und von jemandem, v.a. Erwachsenen, verarbeitet. Kinderbezogene Daten haben, ausweislich der VPN-App von Facebook, eine erhebliche wirtschaftliche Bedeutung. Wo bereits Erwachsene mangels klarer Informationen in klarer Sprache nicht überblicken können, welche Bedeutung und welchen Umfang ihre Einwilligungserklärungen haben, können dies erst recht nicht die Kinder. Das liegt jedoch an der Art und Weise der Informationsvermittlung durch Erwachsene, nicht an den Kindern.

Leider lässt die HLE-Group erkennen, dass sie Kindern ein sachbezogenes Verständnis gar nicht zutraut. Demgegenüber ist die Datenschutzgrundverordnung (DSGVO) weiter. Ihr Erwägungsgrund 58 bestimmt in Satz 4:

Wenn sich die Verarbeitung an Kinder richtet, sollten aufgrund der besonderen Schutzwürdigkeit von Kindern Informationen und Hinweise in einer dergestalt klaren und einfachen Sprache erfolgen, dass ein Kind sie verstehen kann.

Im englischen Erwägungsgrund 58 ist an dieser Stelle ebenfalls nichts von einer Schwäche und damit „vulnerability“ zu lesen:

Given that children merit specific protection, any information and communication, where processing is addressed to a child, should be in such a clear and plain language that the child can easily understand.

Schutzwürdigkeit meint keine Schutzbedürftigkeit. Schutzbedürftigkeit ist wie „vulnerability“ etwas Personenbezogenes, ein Bedürfnis, herrührend aus einer individuellen Schwäche und damit mangelnden Fähigkeit. Schutzwürdigkeit knüpft demgegenüber nicht an die Person, sondern an die Umstände an. Schutzwürdigkeit und Sachverstand schließen sich eben nicht aus.

Ethik-Richtlinien können nicht auf der Unterstellung von Unfähigkeit aufbauen. Die generelle Unterstellung von Unfähigkeit ist per se nicht ethisch. Sie ist gar diskriminierend.

II. Für den Umgang mit personenbezogenen Daten von Kindern fehlen Ethikvorgaben

Der HLE-Group ist klar, dass der Umgang mit personenbezogenen Daten etwas mit Ethik zu tun hat:

„Yet, because Trustworthy AI also requires the ethical handling of data, internal procedures and policies aimed at securing compliance with data protection laws might also help to facilitate ethical data handling and can hence complement existing legal processes.“[21]

Der Titel der Guidelines „Ethics Guidelines For Trustworthy AI“[22] soll den Leser wissen lassen: “Trustworthy AI” ist ethisch. Nach obigem Zitat aus den Guidelines weiß man nun mehr, nämlich: Trustworthy AI ist ethisch, weil sie das ethische Behandeln von Daten erfordert. Trustworthy AI ist also nur ein Zirkelschluss. Was genau ethisches „data handling“ bedeutet, bleibt unklar. Zur Frage, wie man Kinderdaten ethisch erlangt und behandelt, findet sich dementsprechend nichts in den Guidelines. Damit schafft die HLE-Group kein Vertrauen, sondern ein echtes Vertrauensproblem.

Sie vermag auch deshalb nicht zu klären, wie mit Apps wie im Falle von Facebook umzugehen ist, die eine Einwilligung bzw. Zustimmung der Eltern problemlos vortäuschen lassen:

„Where the legal basis for such activity is “consent”, practical means72 must be developed which allow meaningful and verified consent to be given to being automatically identified by AI or equivalent technologies. This also applies to the usage of “anonymous” personal data that can be re-personalised.“ [23]

Soll Facebook nun auch noch Bild- oder Videomaterial, zudem von Nicht-Nutzern (i.e. den Eltern) in seine Sammlung personenbezogener Daten aufnehmen dürfen? Warum soll das offensichtlich rechtswidrige App-Design um weitere Eingriffsmöglichkeiten erweitert werden, um es nachträglich rechtmäßig zu machen? Wo bleibt das Erfordernis der Information, auf deren alleiniger Grundlage eine wirksame Einwilligung bzw. Zustimmung erteilt werden kann?

Trustworthy AI beantwortet Fragen nicht, die sich wegen der DSGVO aufdrängen. Die Idee „‚anonymer‘[24] personenbezogener Daten“, deren Personenbezug im Widerspruch zum Verständnis der DSGVO wiederhergestellt werden könne,[25] spricht demgemäß für ein völliges Verkennen der Bedeutung des Schutzes personenbezogener Daten im Zusammentreffen mit Künstlicher Intelligenz.

Zielführend wäre es, Kindern zunächst ihren Sachverstand zuzugestehen und das bewusst viel zu leicht gestaltete und daher von Anbietern wie Facebook eingeplante Umgehen von Schutzvorkehrungen zu erschweren. „Ethische KI“ sollte gar nicht erst rechtswidrig und mit dem Schein der Rechtmäßigkeit designt werden dürfen. Das ist Tricky AI.

Tricky AI betrifft jedoch auch die Kleinsten. Die HLE-Group verkennt ebenfalls die Risiken vernetzten Spielzeugs, das in unzulässiger Weise personenbezogene Daten, gar solche besonderer Kategorien (v.a. biometrische Daten), unerkannt aus dem Kinderzimmer an Dritte überträgt. Oder Konversationen mit dem Kind durch Unbekannte zulässt. Diese realen Gefahren[26] erscheinen mit Blick auf die Guidelines unter ethischen Gesichtspunkten irrelevant. Ausweislich des künstlich verengten Blicks auf Kinder und ihre Interessen wurden sie einfach nicht geprüft.

Klar sollte sein, als Kinderspielzeug getarnte, „künstlich intelligente“ Spionagegeräte[27] und vergleichbare Apps für Kinder dürfen gar nicht erst entwickelt, hergestellt und zum Kauf angeboten werden. Tricky AI hat in Kinderzimmern nichts verloren.

III.  Kindern darf kein Vertrauen in KI abverlangt werden

Die begriffliche Unsinnigkeit von Trustworthy AI, weil man nur Menschen und nicht Maschinen Vertrauen entgegen bringen kann, stellte bereits ein Mitglied der HLE-Group selbst heraus.[28] Vertrauen und Wissen schließen sich grundsätzlich aus.[29] Vertrauen ist etwas höchst Subjektives, eine persönliche Überzeugung von der Richtigkeit von Informationen oder Redlichkeit von Menschen; beides mangels Nachprüfbarkeit oder besseren Wissens.

Unterstellt, die HLE-Group würde alle, damit auch nicht-benachteiligte Kinder grundsätzlich mitmeinen, könnte das bedeuten, dass auch Kinder ihrem Spielzeug vertrauen sollen:

„AI systems should improve individual and collective wellbeing. This section lists four ethical principles, rooted in fundamental rights, which must be respected in order to ensure that AI systems are developed, deployed and used in a trustworthy manner.“[30]

Kinder sind, je nach Alter und Reife, grundsätzlich arglos und erwarten keine Gefahren von ihrem Spielzeug. Hier von „use in a trustworthy manner“ zu sprechen ist Unsinn. Auch Eltern müssen dem Spielzeug nicht für ihre Kinder vertrauen. Vielmehr müssen ethische Leitlinien vorgeben, dass Spielzeug der Arglosigkeit von Kindern gerecht zu werden hat. Auch sollten sich die Ethik-Vorgaben nicht auf physisches Spielzeug und virtuelle Spiele für Kinder beschränken. Auf die sexuellen Anspielungen in Disney-Kinderfilmen und Cartoons, mit denen heute Erwachsene aufgewachsen sind, sei ergänzend verwiesen.[31]

Hier wird besonders deutlich, wie falsch und fehlleitend die Idee von Trustworthy AI ist. So wie Kinder sollte niemand Gefahren für sich und seine Rechtsgüter von einem AI-Produkt erwarten müssen. Das darf jedoch nicht bedeuten, dass entsprechende Informationen über mögliche Gefahren aufgrund vorgegebenen Vertrauenmüssens gar nicht erst oder nur verworren vermittelt werden. Menschen jeden Alters, die mit technischen Produkten in Berührung kommen, müssen nicht vertrauen, sondern gemäß europäischem Recht umfassend, v.a. über mögliche Gefahren bei der Nutzung, informiert werden.[32] Gegebenenfalls in kindgerechter Sprache, vgl. Erwägungsgrund 58, S. 4 DSGVO. Kinder sind eben nicht (geistig) schwache Menschen mit verminderten Fähigkeiten und krankheitsähnlichen, körperlichen Einschränkungen. In keinem Fall darf Kindern Vertrauen abverlangt werden. Erst recht dürfen Gefahren für Kinder nicht bewusst geschaffen und untergeschoben werden.

Vertrauen ist das, was Tricky AI ausnutzt. Tricky AI ist das, wofür die HLE-Group mit Trustworthy AI den Grundstein gelegt hat.

IV. Guidelines: Chatbots vor Kindern

Die Arglosigkeit und Fantasie der Kinder, insbesondere beim Puppenspiel[33], kann durch AI-Produkte eine Fehlvorstellung über die Realität hervorrufen. Zu denken ist hier insbesondere an täuschend echte Babypuppen.

Für Erwachsene erkennt die HLE-Group ein gewisses aber doch sehr spezielles Täuschungsrisiko:

„Human beings should always know if they are directly interacting with another human being or a machine, and it is the responsibility of AI practitioners that this is reliably achieved. AI practitioners should therefore ensure that humans are made aware of – or able to request and validate the fact that – they interact with an AI system (for instance, by issuing clear and transparent disclaimers). Note that borderline cases exist and complicate the matter (e.g. an AI-filtered voice spoken by a human). It should be borne in mind that the confusion between humans and machines could have multiple consequences such as attachment, influence, or reduction of the value of being human.73 The development of human-like robots74 should therefore undergo careful ethical assessment.“[34]

Der Ausschnitt lässt erkennen, dass auch hier Kinder nicht bedacht wurden, sondern vielmehr (vertrauenswürdige) Service-Hotline-Chatbots. Die naheliegende und bereits bestehende Realität von Kindern wird völlig verkannt. Diese lesen vor dem Spielen nicht zuerst die Haftungsausschlussklauseln.

V. Der Grund: Der Fokus auf die alternde Population Europas

Unter dem Abschnitt „C. Examples of Opportunities and Critical Concerns Raised By AI [35] wird wiederholt von Vorteilen für die „ageing population“ gesprochen. Der Fokus liegt also bewusst auf den Alten. Immerhin merkt die HLE-Group an, dass Bildung nicht nur im Falle von Benachteiligung, sondern auch grundsätzlich ab der Grundschule qualitativ gesteigert werden könnte.

„In addition, AI can be a great tool to fight educational inequalities and create personalised and adaptable education programmes that could help everyone acquire new qualifications, skills and competences according to his or her own ability to learn.70 It could increase both the learning speed and the quality of education – reaching from primary school to university.“ [36]

Wie durch AI die (individuell unterschiedliche) Lerngeschwindigkeit gesteigert werden soll, bleibt jedoch ein ungelöstes Rätsel. So wie die Frage, warum das prägende Aufwachsen mit künstlich intelligenten (Spielzeug-)Produkten vor der Grundschule keine Frage der AI-Ethik ist.

VI. Fortschritt überschreitet und verwischt schützende Grenzen

Der technische Fortschritt wird auch die Kinder immer weiter einverleiben. So wie Spielzeug heute selbst spricht, tanzt, singt, klingt und in der Interaktion auf das Kind reagiert, wird es das in Zukunft auch – lediglich in anderer Form. Kinder werden auf ihre durch das Internet erweiterte Umwelt in ganz neuer Form einwirken und mehr Einflüsse aus ihr selbst aufnehmen. Das sollte ihnen auch möglich gemacht werden, solange sichergestellt ist, dass sie in ihrer Entwicklung nicht gestört werden und selbst niemanden in seinen ebenso geschützten Rechten verletzen. Das Agieren über einen Bildschirm, der eine Verbindung zu einem undurchschaubaren Netzwerk herstellt, macht jeden Menschen unempfänglich für die Bedeutung der Auswirkung eines einzigen Fingertipps an einem seiner Knotenpunkte.

Sollen Kinder unter Berücksichtigung dieser Entwicklungen eigene Geräte in die Schule von morgen mitbringen (bring your own device, BYOB)? Soll die Schule die Geräte stellen? Oder gar ein Unternehmen, ein Dritter mit eigenen Interessen? Wer trägt die Verantwortung für die positiven und negativen Wirkungen auf Kind und Gesellschaft? Es muss beispielsweise ausgeschlossen sein, dass ein mit einem Tablet lernendes Kind mit Pornografie- und Gewaltdarstellungen konfrontiert wird. Genauso muss die Zugänglichkeit solcher verstörender Inhalte unterbunden werden. Es muss sichergestellt sein, dass Kinder für die Interessen anderer, insbesondere Erwachsener, nicht missbraucht werden können. Das gilt v.a. für die von den Kindern produzierten personenbezogenen Daten und deren hohen wirtschaftlichen Wert, der unverkennbar, siehe Abschnitt B., Begehrlichkeiten weckt.

Doch für diese oft neuen Situationen fehlen konkrete ethische Vorgaben, die Vertrauen in die Hersteller und Anbieter zumindest fördern könnten.

C. Die UN-Kinderrechtskonvention und der vielbeinige Spagat zwischen Schutz und Begehrlichkeiten

Eltern können bereits heute kaum übersehen, welchen Bedingungen sich die Kinder in der vernetzten Welt ausgesetzt sehen und welche Datenschätze sie, im schlimmsten Fall gegen 20 US-Dollar, bieten. Auch Gesetzgeber und Behörden scheinen sich dessen noch nicht in Gänze bewusst zu sein. Umfassende Aufklärung und informierte staatliche Unterstützung durch Gesetzgeber, Aufsichtsbehörden sowie Schulen selbst sind und bleiben wesentlich für eine intakte Gesellschaft. Gemeinsam müssen die verschiedenen Interessen bestimmt und, unter Berücksichtigung der aktuellen, realweltlichen Umstände, in Ausgleich gebracht werden.

Die Frage, wo man anfangen kann, das Problem des vielseitigen Interessenwiderstreits zu lösen, ist zu beantworten mit: „Ganz oben“, bei den Menschenrechten. Hier auf der Ebene des Übereinkommens über die Rechte des Kindes, verabschiedet am 20. November 1989 und in Kraft seit dem 2. September 1990, kurz Kinderrechtskonvention (KRK) der Vereinten Nationen.[37]

Die KRK wurde einzig von den USA, der Heimat von Facebook, nicht ratifiziert.[38] Zwar wurde die KRK 1995 von Washington unterzeichnet.[39] Jedoch scheitert es bis heute an der im US-Senat nötigen Zweidrittelmehrheit und damit an der verbindliche Anerkennung bedeutenden Ratifizierung.

I. Aktive und passive Kinderrechte nach dem Übereinkommen

Kind ist nach Art. 1 KRK jeder Mensch, der das achtzehnte Lebensjahr noch nicht vollendet hat, soweit die Volljährigkeit nach dem auf das Kind anzuwendenden Recht nicht früher eintritt.

Gemäß Art. 13 KRK hat das Kind das Recht auf freie Meinungsäußerung; dieses Recht schließt die Freiheit ein, ungeachtet der Staatsgrenzen Informationen und Gedankengut jeder Art in Wort, Schrift oder Druck, durch Kunstwerke oder andere vom Kind gewählte Mittel sich zu beschaffen, zu empfangen und weiterzugeben. Ihnen ist der Zugang zu den (Massen-)Medien bei Beachtung des Kinder- und Jugendschutzes zu gewähren, vgl. Art. 17 KRK.

Das Recht des Kindes auf aktive Teilhabe bedarf der Verfügbarkeit kindgerecht gestalteter (Massen-)Medien. Diese schließen insbesondere soziale Medien ein. So führt Art. 17 KRK aus, dass die Vertragsstaaten die wichtige Rolle der Massenmedien anerkennen und sicherstellen, dass das Kind Zugang hat zu Informationen und Material aus einer Vielfalt nationaler und internationaler Quellen, insbesondere derjenigen, welche die Förderung seines sozialen, seelischen und sittlichen Wohlergehens sowie seiner körperlichen und geistigen Gesundheit zum Ziel haben.

Zu diesem Zweck sollen die Vertragsstaaten

a) die Massenmedien ermutigen, Informationen und Material zu verbreiten, die für das Kind von sozialem und kulturellem Nutzen sind und dem Geist des Artikels 29 entsprechen;

b) die internationale Zusammenarbeit bei der Herstellung, beim Austausch und bei der Verbreitung dieser Informationen und dieses Materials aus einer Vielfalt nationaler und internationaler kultureller Quellen fördern; 

c) die Herstellung und Verbreitung von Kinderbüchern fördern;

d) die Massenmedien ermutigen, den sprachlichen Bedürfnissen eines Kindes, das einer Minderheit angehört oder Ureinwohner ist, besonders Rechnung zu tragen; 

e) die Erarbeitung geeigneter Richtlinien zum Schutz des Kindes vor Informationen und Material, die sein Wohlergehen beeinträchtigen, fördern, wobei die Artikel 13 und 18 zu berücksichtigen sind.

Demgegenüber und in Ergänzung des Buchstaben e sind Kinder vor schädlichen Einflüssen der Massenmedien zu schützen, die über passive Information und Materialien hinausgehen. So konstatiert Art. 9 der Denkschrift zu dem Übereinkommen vom 24. Januar 1991:[40]

Das Kind wird vor allen Formen der Vernachlässigung, Grausamkeit und Ausbeutung geschützt. Es darf nicht Handelsgegenstand in irgendeiner Form sein.

Das Kind wird vor Erreichung eines angemessenen Mindestalters nicht zur Arbeit zugelassen; in keinem Fall wird es veranlasst oder wird ihm erlaubt, einen Beruf oder eine Tätigkeit auszuüben, die seine Gesundheit oder Erziehung beeinträchtigen oder seine körperliche, geistige oder sittliche Entwicklung hemmen würden.

Art. 17 KRK lässt erkennen, dass Anfang der Achtzigerjahre des letzten Jahrhunderts die Überzeugung herrschte, dass der positive Einfluss der Massenmedien auf Kinder größer sei als der schädliche.[41] Der überwiegende positive Einfluss ist auch heute nicht in Abrede zu stellen. Dennoch wird unter Verweis auf die im Abschnitt B.I. beschriebenen Aktionen von Facebook deutlich, dass Kinder heute sehr wohl, und dazu in einem noch nicht klar bestimmbaren Ausmaß, Gegenstand wirtschaftlicher Interessen Dritter sind, wovor sie eigentlich ausweislich Art. 9 der Denkschrift und Art. 32 KRK zu schützen sind.

Art. 32 KRK regelt den Schutz des Kindes vor wirtschaftlicher Ausbeutung. Hiernach erkennen die Vertragsstaaten das Recht des Kindes an, vor wirtschaftlicher Ausbeutung geschützt und nicht zu einer Arbeit herangezogen zu werden, die Gefahren mit sich bringen, die Erziehung des Kindes behindern oder die Gesundheit des Kindes oder seine körperliche, geistige, seelische, sittliche oder soziale Entwicklung schädigen könnte.

Eine Arbeitstätigkeit ist heute nicht mehr zwingend physisch, körperlich beanspruchend und zeitlich geregelt. Auch kann das kommunizierte, kindliche Gefühl des Glücks und Lernens für das Erwachsensein den elterlichen Verdacht wirtschaftlicher Ausbeutung zerstreuen. Die Langzeitfolgen und damit Entwicklungsbeeinträchtigungen durch die neuen Geschäftsmodelle sind nicht absehbar. Unter Verweis auf die Reaktionen auf das elterliche Verhalten des Veröffentlichens von Kinderbildern in sozialen Medien ist zumindest erahnbar, dass ein schweres und anhaltendes Schamgefühl erhebliche psychische Beeinträchtigungen und damit Entwicklungsschädigung bedeuten kann.[42]

Es ist heute ebenso wenig „erforderlich“, Kinder als Handelsgegenstand physisch zu handeln, um ihre Identitäten (vgl. Art. 8 KRK) in Gestalt (der Gesamtheit) ihrer personenbezogenen Daten lebenslang zu missbrauchen. Art. 9 der Denkschrift spricht von „irgendeiner Form“, insofern jeder Form des Handels, auch wenn man sie damals noch nicht erahnen konnte.

II. Schutz ist nicht Ausschluss von Zugang zu den Massenmedien oder Überwachung

Kinderschutz darf dennoch nicht heißen, dass die Rechte der Kinder „zu ihrem Besten“ beschnitten werden, etwa, weil nur das Fernhalten von Massenmedien vor deren Missbrauchsmöglichkeiten bewahrt. Das digitale Zeitalter kann nicht weggeschlossen werden und bedarf der neuen Auslegung der Teilhaberechte des Kindes, vor allem an den Massenmedien. Das Recht des Kindes auf Berücksichtigung seines Willens, niedergelegt in Art. 12 KRK, muss auch hier Eingang finden. Die Erfahrung zeigt jedoch, Kinderschutz greift im Falle der Massenmedien heute im Wesentlichen erst nachträglich. Nämlich dann, wenn das „Kind schon in den Brunnen gefallen ist“ und es überhaupt jemand gemerkt sowie gemeldet hat.

Um abzuhelfen, könnte mancher auf die Idee kommen, die Kinder umfassend zu kontrollieren und zu überwachen. Diese Funktion ist nicht nur aufseiten der Eltern denkbar, sondern gerade auch aufseiten der Schulen, der Hard- und Software zur Verfügung stellenden Dritten oder auch Aufsichtsbehörden. Hierin läge ein Verstoß gegen Art. 16 KRK, dem Recht des Kindes auf Schutz seiner Privatsphäre und Ehre. Kein Kind darf willkürlichen oder rechtswidrigen Eingriffen in sein Privatleben, seine Familie, seine Wohnung oder seinen Schriftverkehr oder rechtswidrigen Beeinträchtigungen seiner Ehre und seines Rufes ausgesetzt werden. Darüber hinaus hat das Kind auch das Recht, in Ruhe gelassen zu werden, Art. 31 KRK.

III.  Achtung, Schutz und Gewährleistung von Kinderrechten

Die Umsetzung der Kinderrechtskonvention ist Aufgabe jedes Vertragsstaates – allerdings, mangels Ratifizierung – nicht die der USA. Es ist daher eine Notwendigkeit, in Anbetracht der in die Rechte von in Vertragsstaaten wohnhaften Kindern eingreifenden US-Unternehmen, sich die Aufgaben der Kinderrechtskonvention wieder ins Gedächtnis zu rufen und diese auf die politische Agenda zu setzen:

  1. Achtung (respect) vor Kindern, indem sie nicht unmittelbar oder mittelbar an der Ausübung ihrer Rechte gehindert werden,
  1. Schutz (protect) von Kindern insbesondere vor der Ausbeutung durch privatwirtschaftliche Unternehmen, die der Herrschaftsgewalt des Vertragsstaates unterstehen und
  1. Gewährleistung (fulfill) der Wahrnehmung der Kinderrechte, u.a. durch Bereitstellung der erforderlichen Infrastrukturen und Schulen.[43]

Zu letzterem Punkt gehört auch der Zugang zum Recht lange vor der Volljährigkeit. Hieran mangelt es offenbar, wenn Kinder ihre Eltern erst Jahre nach dem Teilen unangenehmer Kinderfotos auf Facebook gerichtlich in Anspruch nehmen können.

D. Erste Lösungsansätze

I. Auf Europaebene

Die Europäische Kommission sollte die Guidelines dringend überdenken und überarbeiten lassen. Sie gehen an der Lebesnwirklichkeit und rechtlichen Realität vorbei,[44] sie sind abwertend und diskriminierend. Kinder sind die Entwickler, Dienstleister und Nutzer von morgen. Die Europäische Kommission sollte in der Zukunft weniger Distanz in Worten suchen, sondern Nähe zu den Kindern Europas.

II. Auf nationaler Ebene

Die UN-Kinderrechtskonvention bildet einen Mindestschutzstandard. Nach ihrem Artikel 41 lässt die Kinderrechtskonvention zur Verwirklichung der Rechte des Kindes besser geeignete Bestimmungen unberührt, die im Recht eines Vertragsstaats oder in dem für diesen Staat geltenden Völkerrecht enthalten sind. Es ist also möglich, auf nationaler Ebene, natürlich unter Berücksichtigung von geltendem Europarecht, diesen Mindestschutz aktuell und besser zu gestalten.

Die heutige digitale Welt war in den Achtziger- und Neunzigerjahres des letzten Jahrhunderts nicht Alltag. Die Kinderrechte müssen also neu betrachtet und ihre Umsetzung angepasst werden. Auch Unternehmen brauchen zugunsten des Schutzes von Kindern – taugliche – ethische Vorgaben.

1. Kinderfreiheiten und -rechte ethisch und wahrnehmbar ausgestalten

Kinderrechte, verwirklicht in der digitalen Welt, bedeuten vor allem Freiheit. Die Freiheit (mit) zu entscheiden, was und wie viel vom eigenen Leben digital sein darf und soll.

„Das Problem ist nicht die Technologie, sondern ob man eine Wahl hat, sich ihr zu entziehen oder nicht.“[45]

Und diese Freiheit kann nur sichergestellt werden, wenn ethische Grundsätze für Kinder geschaffen werden und ernsthaft, abseits von Marketingsprech, tatsächlich Anwendung finden. Der übliche Blick in die USA als Vorbild für Innovationstrieb und Machermentalität ist hier fehl am Platz. Die USA sind der einzige Mitgliedstaat, der die UN-Kinderrechtskonvention nicht ratifiziert hat.

2. Was kann Deutschland besser machen?

Kinder können von der digitalen Welt nicht ausgeschlossen oder abgeschirmt werden, ohne ihre Rechte auf Teilhabe an der Gesellschaft unter der Kinderrechtskonvention zu beschneiden. Risiken und Chancen müssen in Ausgleich gebracht werden. Ein sehr guter Ansatz ist der Estlands, Kinder frühzeitig und aktiv in den digitalen Alltag einzubeziehen und Selbstschutz im digitalen Raum ab dem Kindergarten zu trainieren. Die Resilienz des digitalen Staates hängt ab vom Einzelnen. Bereits im Kindergarten werden erste technische Kenntnisse vermittelt.[46] Die Schule findet in vielerlei Hinsicht digital statt.[47] Eine der wichtigsten zu vermittelnden Grundkompetenzen ist die Digitalkompetenz: Den Kindern wird beigebracht, wie sie sich und ihre digitale Identität schützen können, was Datenschutz bedeutet und wie man sich im digitalen Bereich verhält.[48] Sie sind aktiver Teil der Digitalstrategie.

Inwiefern die personenbezogenen Daten der Schüler in den Händen von privaten Unternehmen sicher und vor Zugriff Unbefugter sowie Missbrauch geschützt sind, lässt sich nicht pauschal beurteilen. Auch entsteht nicht der Eindruck, dass die Hergabe von personenbezogenen Daten der Kinder eine „Daten-Zwangsabgabe“ darstellt wie etwa in China.[49] Umgekehrt ist aber auch nicht erkennbar, dass Estland auf die Äußerung des persönlichen Unwillens zur umfassenden Datenhergabe Ausweichwege bereit hält und somit dem Kind ein datensparsames Lernen ermöglicht. Auch ein Kind sollte die Wahl haben, ob es Technologie nutzt oder nicht nutzt, ohne dass es sein Recht auf Bildung (Art. 28, 29 KRK) und Teilhabe am sozialen Leben opfern muss.

Kinder sollten in Deutschland viel mehr als aktiver Teil der Gesellschaft wahrgenommen werden: In vielen Punkten kann sogar der Erwachsene von ihnen lernen. Deutschland hat den Vorteil, dass es, wenn die Bildungseinrichtungen irgendwann auf dem Stand Estlands sind, die Infrastruktur für digitales und analoges Lernen bieten kann. Es könnte Kindern tatsächlich mehr (Entscheidungs-)Freiheiten bieten.

E. Fazit

Die fehlende Zentrierung von Kinderinteressen muss sich die Europäische Kommission als Spiegel vorhalten lassen. So sehr sie auch versucht, sich durch Worte von den Guidelines zu distanzieren.[50] Europa hat indes ein Ziel bereits erreicht: Es hat die USA, welche die UN-Kinderrechtskonvention nie ratifiziert haben, in puncto Nichtberücksichtigung von Kinderinteressen und -rechten eingeholt. Es hat die eigenen, durch wenige „Experten“ vertretenen wirtschaftlichen Interessen priorisiert.

Die wirtschaftlichen Interessen im Übrigen, die ohne die Kinder auf lange Sicht nicht verwirklicht werden können.

Die Guidelines der HLE-Group haben die wichtige, sicherheits- und zukunftsgewandte Bedeutung der Kinder für die – ausdrücklich als alternd bezeichnete – Gesellschaft völlig verkannt. Kinder sind keine Randerscheinung. Die Ignoranz gegenüber den Europäern der Zukunft zeigt in gravierender Weise auf, wie wenig menschenzentriert die Guidelines wirklich sind. Wer den Kindern nicht die ihnen gebührende Aufmerksamkeit schenkt, verschenkt Zukunftschancen. Gerade im Bereich der Zukunftstechnologien.

Der Fokus Deutschlands sollte daher, mit frischem Blick, getrieben von Kenntnissen neuerer technischer Entwicklungen und ihrer Chancen sowie Gefahren, auf die UN-Kinderrechtskonvention gerichtet werden. Kinder sollten, so wie auch in Estland, vielmehr als ein wichtiger und mündiger Teil der Gesellschaft angesehen werden, der einen wesentlichen Beitrag zum Wohle und der Sicherheit aller leistet. Ihr Teilhabe erst ermöglicht eine Zukunft.

Unsere Kinder sind viel klüger als wir es wahrscheinlich wahrhaben wollen. Wir sollten ihnen daher die Möglichkeit geben, ihre Fähigkeiten unter Beweis zu stellen.

Narcissus‘ Spiegelbild wurde ihm zum Verhängnis. Europa verdankt seinen Namen auch der griechischen Mythologie. Vielleicht lernt es aus alten Fehlern. Ethik hat mehr mit Information und Zutrauen menschlicher Intelligenz zu tun als mit dem Verlangen des Vertrauens in ein eigenes, trügerisches Bild von Künstlicher Intelligenz. Und das verdient nicht den Namen Trustworthy AI, sondern Tricky AI.

A

A


[1]  Ovid – Metamorphosen, Narcissus und Echo, 1 n.Chr., Übersetzung J.H. Voß, 1798.

[2]  Siehe hierzu den vorgehenden Artikel, Otto, Ri 2019, 15, an den dieser anknüpft.

[3]  Abrufbar unter https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (zuletzt abgerufen am 14. April 2019).

[4]  Guidelines, Seite 2, vgl. dazu, identisch, Seite 13.

[5]  Guidelines, Seite 2, Fn 2, vgl. dazu die identische Fn 34.

[6]  Guidelines, Seite 11.

[7]  Guidelines, Seite 19, Fn 48.

[8]  Guidelines, Seite 38.

[9]  High Level Expert Group, vgl. Otto, „In Bot eu Trust“, Ri 2019, 15.

[10]  Otto, Ri 2018, 68 (72).

[11]  Guidelines, Seite 11.

[12]  Ganten, „Digitale Souveränität statt Digitalem Mittelalter“, Keynote vom Univention Summit 2019, abrufbar unter https://www.youtube.com/watch?v=Lo18G7XOoBA; „Uns droht ein technikzentriertes Mittelalter“, FAZ vom 3. Februar 2019, https://www.faz.net/aktuell/wirtschaft/diginomics/digitale-souveraenitaet-statt-digitalem-mittelalter-16021367.html?GEPC=s3&premium=0x1c8ff7be24a093599949e463cd8d6d44 (alle zuletzt abgerufen am 23. April 2019).

[13]  https://medium.com/syncedreview/chinese-publisher-introduces-ai-textbooks-for-preschoolers-b95e1a89cfa0 (zuletzt abgerufen am 24. März 2019).

[14]  Lomas, „Facebook’s VPN app puts spotlight on kids’ consent“, TechCrunch vom 30. Januar 2019, https://techcrunch.com/2019/01/30/facebooks-vpn-app-puts-spotlight-on-kids-consent/ (zuletzt abgerufen am 24. März 2019).

[15]Lomas, „Facebook’s VPN app puts spotlight on kids’ consent“, TechCrunch vom 30. Januar 2019, https://techcrunch.com/2019/01/30/facebooks-vpn-app-puts-spotlight-on-kids-consent/ (zuletzt abgerufen am 24. März 2019).

[16]Lomas, „Facebook’s VPN app puts spotlight on kids’ consent“, TechCrunch vom 30. Januar 2019, https://techcrunch.com/2019/01/30/facebooks-vpn-app-puts-spotlight-on-kids-consent/ (zuletzt abgerufen am 24. März 2019).

[17]  Biselli, 20 US-Dollar im Monat für ein komplettes Online-Leben, Golem, 30. Januar 2019, https://www.golem.de/news/facebook-20-us-dollar-im-monat-fuer-ein-komplettes-online-leben-1901-139066.html (zuletzt abgerufen am 24. März 2019).

[18]  Lomas, „Facebook’s VPN app puts spotlight on kids’ consent“, TechCrunch vom 30. Januar 2019, https://techcrunch.com/2019/01/30/facebooks-vpn-app-puts-spotlight-on-kids-consent/ (zuletzt abgerufen am 24. März 2019).

[19]  Lomas, „Facebook’s VPN app puts spotlight on kids’ consent“, TechCrunch vom 30. Januar 2019, https://techcrunch.com/2019/01/30/facebooks-vpn-app-puts-spotlight-on-kids-consent/ (zuletzt abgerufen am 24. März 2019) unter Verweis auf den Twitter-Post von BBC-Journalist Dave Lee vom 30. Januar 2019: “It required no proof of parental consent at all. I’ve just been sent a link to download the iOS app”.

[20]  Zur fehlenden Begriffsklarheit ausführlich Otto, Ri 2018, 68 (72).

[21]  Guidelines, Seite 26.

[22]  Abrufbar unter https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (zuletzt abgerufen am 14. April 2019).

[23]  Guidelines, Seite 34.

Die in Bezug genommene Fn 72 schiebt die Verantwortung sogar auf den Verbraucher: „As current mechanisms for giving informed consent in the internet show, consumers typically give consent without meaningful consideration. Hence, they can hardly be classified as practical.“ Die unwirksamen Einwilligungen in Sachen Facebook und Google sind ausweislich der Entscheidungen der CNIL vom 21. Januar 2019, https://www.cnil.fr/en/cnils-restricted-committee-imposes-financial-penalty-50-million-euros-against-google-llc (zuletzt abgerufen am  14. April 2019), und des BKArtA vom 6. Februar 2019, https://www.bundeskartellamt.de/SharedDocs/Entscheidung/DE/Fallberichte/Missbrauchsaufsicht/2019/B6-22-16.pdf?__blob=publicationFile&v=4 (zuletzt abgerufen am 14. April 2019), wohl kaum ein Problem der „practical means“, sondern vor allem der mangelhaften Informationspraxis der Anbieter.

[24]  Es wird jedenfalls nicht erklärt, warum „anonymous“ (Fn 23) in Anführungszeichen gesetzt wurde.

[25]  Vgl. hierzu die Definition anonymer Daten in Erwägungsgrund 26 der Datenschutzgrundverordnung (DSGVO), S. 5: „Die Grundsätze des Datenschutzes sollten daher nicht für anonyme Informationen gelten, d.h. für Informationen, die sich nicht auf eine identifizierte oder identifizierbare natürliche Person beziehen, oder personenbezogene Daten, die in einer Weise anonymisiert worden sind, dass die betroffene Person nicht oder nicht mehr identifiziert werden kann.“

[26]  Der Fall „Cayla“, So spioniert „Cayla“ Kinder aus, Süddeutsche Zeitung vom 17. Februar 2017, https://www.sueddeutsche.de/digital/verbotenes-spielzeug-so-spioniert-die-puppe-cayla-kinder-aus-1.3383387 (zuletzt abgerufen am 20. April 2019).

[27]  Vgl. „Bundesnetzagentur zieht ,Kinderpuppe ,Cayla‘ aus dem Verkehr“, Pressemitteilung der BNetzA vom 17. Februar 2017, https://www.bundesnetzagentur.de/SharedDocs/Pressemitteilungen/DE/2017/14012017_cayla.html (zuletzt abgerufen am 20. April 2019).

[28]  „Nehmt der Industrie die Ethik weg“, Tagesspiegel vom 8. April 2019, https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html (zuletzt abgerufen am 14. April 2019).

[29]  Otto, Ri 2019, 15 (18).

[30]  Guidelines, Seite 11.

[31]  „11 sexuelle Anspielungen die in Disney Filmen versteckt sind“, https://www.wisst-ihr-noch.de/90er/filme-90er/11-sexuelle-anspielungen-die-in-disney-filmen-versteckt-sind-31423/ (zuletzt abgerufen am 14. April 2019).

[32]  Otto, Ri 2019, 15 (18).

[33]  Geschlechtsneutral werden hier sämtliche Spielfiguren erfasst, von der Babypuppe über die Handpuppe bis hin zur lebensgroßen Superheldenfigur.

[34]  Guidelines, Seite 34.

[35]  Guidelines, Seite 32.

[36]  Guidelines, Seite 33.

[37]  https://www.institut-fuer-menschenrechte.de/fileadmin/user_upload/PDF-Dateien/Pakte_Konventionen/CRC/crc_de.pdf (zuletzt abgerufen am 24. März 2019).

[38]  Die UN-Kinderrechtskonvention: Der normative Rahmen, Bundeszentrale für politische Bildung, 16. Oktober 2012, http://www.bpb.de/apuz/146103/die-un-kinderrechtskonvention-der-normative-rahmen?p=all; UN-Kinderrechtskonvention: Club of One für die USA, Aktiv gegen Kinderarbeit, 20. Januar 2016, https://www.aktiv-gegen-kinderarbeit.de/2016/01/un-kinderrechtskonvention-club-of-one-fuer-die-usa/  (zuletzt abgerufen am 24. März 2019).

[39]  Becker, Human Rights Watch, The Club of 1 on Children’s Rights, 1. Oktober 2015, https://www.hrw.org/news/2015/10/01/dispatches-us-club-1-childrens-rights (zuletzt abgerufen am 24. März 2019).

[40]  Denkschrift zu dem Übereinkommen, Bundestags-Drucksache 12/42 (vom 24.01.1991, S. 29–53), https://www.institut-fuer-menschenrechte.de/fileadmin/user_upload/PDF-Dateien/Pakte_Konventionen/CRC/crc_de.pdf (zuletzt abgerufen am 24. März 2019).

[41]  UNODokument E/BCN.4/L.1560/Add. 14 vom 11. März 1981, S. 21.

[42]  „Sie kannten keine Scham und keine Grenze“, Welt, 13. September 2016, https://www.welt.de/vermischtes/article158099198/Sie-kannten-keine-Scham-und-keine-Grenze.html; Huggler, Austrian Teenager sues parents for „violating privacy“ with childhood Facebook pictures, The Telegraph, 14. September 2016, https://www.telegraph.co.uk/news/2016/09/14/austrian-teenager-sues-parents-for-violating-privacy-with-childh/ (zuletzt abgerufen am 24. März 2019).

[43]  Die UN-Kinderrechtskonvention: Der normative Rahmen, Bundeszentrale für politische Bildung, 16. Oktober 2012, http://www.bpb.de/apuz/146103/die-un-kinderrechtskonvention-der-normative-rahmen?p=all (zuletzt abgerufen am 24. März 2019).

[44]  Siehe hierzu auch den vorgehenden Artikel, Otto, Ri 2019, 15, an den dieser anknüpft.

[45]  Berger, „Wie Privatsphäre immer exklusiver wird – und zwar überall auf der Welt“, 6. Juli 2018, deutsche Fassung auf https://blog.mozilla.org/berlin/wie-privatsphaere-immer-exklusiver-wird-und-zwar-ueberall-auf-der-welt/, Original (Englisch) abrufbar unter https://medium.com/@_cberger_/privacy-comes-with-rising-cost-across-the-world-d9999c9cafb7 (zuletzt abgerufen am 24. März 2019).

[46]  https://www.wired.com/beyond-the-beyond/2018/01/estonian-cyber-security/ (zuletzt abgerufen am 24. März 2019).

[47] Kersting, Estlands digitales Klassenzimmer ist Spitze in Europa, Deutschlandfunk, https://www.deutschlandfunk.de/schulwesen-estlands-digitales-klassenzimmer-ist-spitze-in.680.de.html?dram:article_id=419770 (zuletzt abgerufen am 24. März 2019).

[48] Kersting, Estlands digitales Klassenzimmer ist Spitze in Europa, Deutschlandfunk, https://www.deutschlandfunk.de/schulwesen-estlands-digitales-klassenzimmer-ist-spitze-in.680.de.html?dram:article_id=419770 (zuletzt abgerufen am 24. März 2019).

[49]  Jinghong „Wir wissen, dass wir ein gewisses Maß an Informationen und Daten opfern müssen, oder beitragen müssen, damit Firmen lernen können.“, ARD MOMA Interview in „Überwachungsstaat China“ vom 4. März 2019.  

[50]  Siehe hierzu den vorgehenden Artikel, Otto, Ri 2019, 15 (20, 24)

Titelbild: © Ivan via Adobe Stock, #196504061