Künstliche Intelligenz und lernende Algorithmen sind längst in unserem Alltag präsent. Schon früh haben sie die Börsen aufgemischt, an denen sie mit High Frequency Trading oder Flash Trading in Millisekunden selbständig bzw. automatisch handeln. Seither haben die Bots einiges dazugelernt: So wirken sie nun auch an Partnerbörsen und ordnen dort Menschen einander zu. Auch was wir im Nachrichten- und Werbungsstrom oder im Suchranking sehen, wird gesteuert durch KI-Programme – ebenso wie die Einstufung unserer Kreditwürdigkeit oder die Preise der Waren und Dienstleistungen. KI-Programme diagnostizieren Krankheiten, unterhalten sich mit uns in Form von digitalen Assistenten, erkennen Gesichter, Stimmen, den Gang, deuten Verhaltensweisen, schätzen die Rückfälligkeit von Kriminellen ein, sagen im Voraus, wo sich Einbrüche und andere Straftaten ereignen können, steuern Sharing-Plattformen, Smart Home oder gar Smart Cities-Systeme sowie autonome Fahrzeuge, Drohnen oder Schiffe. Sie ersetzen damit zunehmend Aufgaben, die bis anhin von Menschen wahrgenommen wurden.

Wir leben in einer Welt, in der Algorithmen und KI-Agenten mit uns und anderen KI-Agenten interagieren. Anders als herkömmliche Maschinen lernen KI-Agenten dazu, indem sie fortwährend Daten prozessieren und Entscheidungen treffen. Dadurch handeln sie zwar nicht frei, aber sie können sich verändern und sich dadurch unvorhersehbar verhalten, ebenso wie sie die Umwelt und die Menschen durch ihr Verhalten oder ihre Entscheidungen verändern. Intensiv wird deshalb über eine Maschinenethik nachgedacht: Nach welchen Regeln soll sich ein autonomes Fahrzeug verhalten, in einer Situation, in der entweder die Passagiere oder Menschen auf der Strasse zum Opfer werden können? Wie sollen autonome Waffensysteme zwischen Gegnern und «Zivilisten» unterscheiden?

Auch wenn die meisten Algorithmen noch sehr spezifisch auf die Lösung von klar umrissenen Aufgaben ausgelegt sind, befinden wir uns bereits in einer Evolutionsdynamik. KI-Programme werden über den Input von Daten trainiert, einen bestimmten Output zu liefern. Dabei sind die Grenzen des Datenmaterials gewissermassen die Grenzen der Welt für den Algorithmus; was dazu führen kann, dass Algorithmen dann rassistisch, diskriminierend und vorurteilsgeladen handeln. Das Problem stecke, so heisst es, weitgehend im Datenmaterial, mit dem sie gefüttert werden. Wenn das Datenmaterial eine Schlagseite oder blinde Flecken hat, können etwa Frauen oder Dunkelhäutige mit Gesichtserkennung nicht (oder falsch) erkannt werden, Personen mit bestimmten Eigenschaften als nicht kreditwürdig, als Rückfalltäter oder nicht für einen Job geeignet eingestuft werden. Ein derartiger Bias muss zudem nicht zwingend allein im Datenmaterial vorliegen, sondern kann nur alleine im Design des Interface zum Vorschein kommen: Ein UNESCO-Bericht verwies kürzlich darauf, dass digitale Sprachassistenten wie Alexa, Siri oder Cortana mit Frauenstimmen in der Rolle als unterwürfige Dienerinnen auftreten und so einseitige Rollenbilder verbreiten oder verstärken; zumal auch Kinder bereits mit solchen KI-Assistenten aufwachsen und diese immer durchgängiger ins Alltagsleben einziehen. Menschen könnten bald mehr mit solchen KI-Agenten sprechen als mit ihren Mitmenschen.

KI-Systeme wandern aus der alten Maschinenwelt aus. Bei herkömmlichen Maschinen kann man nachvollziehen, wie sie Schritt für Schritt handeln. Zum Bild der mechanischen Maschinen, wie in der Neuzeit von Descartes auch Tiere und Menschen verstanden wurden, gehört ausserdem die Dystopie, dass sie ihrer Freiheit beraubt und zu Sklaven mit vorhersehbarem Verhalten gemacht werden. Das hat sich mit den KI-Systemen grundlegend verändert: Hier muss mit unvorhergesehenen Überraschungen gerechnet werden. Etwas, was nicht nur im Fall von autonomen Fahrzeugen höchst unangenehm, gar lebensbedrohlich werden könnte. EntwicklerInnen fordern mitunter, man solle KI-Systeme als Lebewesen mit meist voraussehbarem Verhalten betrachten, die auch ausscheren und möglicherweise «böse» werden können.

Bedrohlich, wenn man bedenkt, in wie vielen Funktionen KI bereits im Alltagsleben angekommen ist. Sollten Hersteller oder Staaten – und damit auch Hacker, Terroristen oder staatliche Feinde – die Möglichkeit besitzen, mit dem Internet und mit Clouds verbundene KI-Systeme aus der Ferne auszuschalten oder zu manipulieren? Wenn sich KI-Systeme lernend entwickeln, um sich spezifisch anzupassen, dann könnten auch manche Updates und Patches problematisch werden.
Manchmal heisst es, dass die smarten Maschinen nur mit ausgewogenem Datenmaterial gefüttert und optimiert werden müssen, um sie vollends fehler- und vorurteilsfrei zu machen. Das Problem geht aber bekanntlich tiefer, denn die KI-Entwickler wissen oft nicht, was in dem «künstlichen Gehirn» bzw. dem neuronalen Netzwerk mit vielen Schichten vor sich geht. Mit zunehmender Komplexität und Lernerfahrung wird es für den Menschen zur Black Box, wo nur zu sehen ist, was an Daten einfliesst und was herauskommt.

Ein internationales Team von WissenschaftlerInnen hat Ende April in der Zeitschrift «Nature» in einer Art Manifest gefordert, bei KI-Systemen nicht nur Eingabe und Ausgabe zu optimieren, sondern das Maschinenverhalten ähnlich wie jenes bei Tieren oder Menschen zu untersuchen. Man könne viele der schon an Lebewesen erprobten Methoden verwenden, um die KI-Systeme besser verstehen und steuern zu können. Diese Annäherung an das Verhalten der KI-Systeme in ihrer Umwelt, ihrer Evolution und ihrer Interaktion entspricht damit dem Vorgehen von Behavioristen, die nicht wie NeurowissenschaftlerInnen in das Innere der «Gehirne» eindringen, sondern dieses anhand einer Testreihe aus Input und Output beobachten.

Maschinen- oder KI-Behavioristen würden also KI-Systeme nicht reparieren, sondern untersuchen, wie KI-Systeme Menschen (oder sich gegenseitig) beeinflussen: Wie verändern Menschen ihr Verhalten, wenn KI-Systeme auf sie reagieren? Wie agieren KI-Systeme und was für einen Evolutionsprozess bewirken sie damit? Diese Forschung basiert auf der Annahme, dass KI seine NutzerInnen in mehr oder weniger unerwünschte individuelle und kollektive Verhaltensmuster drängt. Man denke nur an wie sich die räumliche Orientierung durch Navigationsassistenzsysteme verändert oder sich die Gedächtnisfunktionen durch permanent abrufbare Informationsspeicher bereits verschlechtert haben… Die Interaktion mit digitalen Assistenten, intelligenten Haushalts-, Spiel-, Sex- oder Pflegerobotern wird auch das Verhalten von Menschen untereinander tiefgreifend verändern.

Das amerikanische Pentagon hat erkannt, dass es zu schwerwiegenen Problemen führen kann, wenn autonome Systeme nicht mehr verstanden werden. Es finanziert deshalb Projekte, die erklärbare KI-Systeme schaffen sollen. Trivial ist das nicht. Die Forschungsbehörde Darpa hat bereits das Programm «Explainable Artificial Intelligence (XAI)» auf die Beine gestellt, um zu eruieren, wie man Künstliche Intelligenz erklärbar machen könnte. Dies sei entscheidend, «wenn künftige Soldaten eine sich entwickelnde Generation von künstlich intelligenten Maschinenpartnern verstehen, vertrauen und effektiv handhaben sollen».

WissenschaftlerInnen von der Google-Firma DeepMind Technologies glauben, wie sie in «Kognitionspsychologie für tiefe neuronale Netzwerke» schreiben, eine Lösung für das Problem gefunden zu haben: Lernende KI-Systeme sollten wie Kinder behandelt werden, um einen Zugang zu ihnen zu erhalten. Was man entwickelt habe, um das menschliche Gehirn zu verstehen, könnte nun als künstliche Kognitionspsychologie auch für die KI wichtig werden. So wie die Psychologie versucht habe, die Black Box von Kindern zu verstehen und daraus Erkenntnisse gewonnen habe, könne man nun ebenso versuchen, die kognitiven Abläufe von KI-Systemen zu erfassen.

So würden mit der ImageNet-Fotodatenbank trainierte neuronale Netzwerke genauso wie Kinder dazu neigen, Gegenständen auf Fotos dieselben Namen zu geben, die ähnliche Formen besitzen, während dies bei Farben nicht gemacht wird. Dieser Form-Bias präge sich im Laufe des Lernens aus und werde stärker, gleichzeitig zeige sich eine grosse Variabilität. Neuronale Netze unterscheiden sich also, auch wenn sie von der Architektur her identisch sind und dieselbe Klassifikationsgenauigkeit besitzen. Bei ihren kognitionswissenschaftlichen KI-Erkundungen stellte sich heraus, dass sich Verzerrungen (biases) auf dem ganzen Modell eines neuronales Netzes von der Eingangsschicht (Inception) bis zu den Gedächtnismodulen verbreiten. Wenn man verschiedene Module kombiniert, so warnen die WissenschaftlerInnen, müsse man mit einer «Kontamination unbekannter Eigenschaften» über die Module hinweg rechnen: «Ein Bias, der in einem Modul erwünscht ist, kann schädliche Folgen haben, wenn es mit anderen kombiniert wird.»

Aber Verstehen ist nur die eine Seite, die andere ist die Reparatur eines entgleisten oder gar bösartig gewordenen «Gehirns». Sollten also KI-Systeme, die Unerwünschtes machen, einer «Therapie» unterzogen werden? Wenn ein Modul nicht durch ein anderes ersetzt werden und das System nicht repariert werden kann, weil man die neuronalen Mechanismen nicht kennt, kann man eigentlich das System nur in Quarantäne nehmen und versuchen, durch Veränderung des Architekturmodells und der Eingangsdaten den Output zu optimieren. Das wäre wieder ein verhaltenskonditionierendes Herumbasteln, bei dem man abwarten muss, ob es erfolgreich ist. Mit vielen wird man wie mit Alexa, Cortana oder Siri sprechen können. Dann fragt sich nur, wer hier wen therapiert – und was dabei herauskommen wird.

Florian Rötzer ist ein deutscher Journalist. Er studierte in München Philosophie, Pädagogik sowie Psychologie und ist Chefredakteur beim Online-Magazin Telepolis, zu dessen Gründern er gehört.

Comment is free

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert