Algorithmen sind Teil unseres Lebens. Sie helfen Ärztinnen bei Krebsdiagnosen und schicken Polizisten auf die Jagd. Sie suchen für Personalabteilungen geeignete Bewerberinnen aus und schlagen Richtern vor, welche Strafen sie verhängen sollen. Algorithmen und Künstliche Intelligenz (KI) bestimmen mehr und mehr unseren Alltag. «Was alle angeht, können nur alle lösen», befand schon Friedrich Dürrenmatt in seinen «Physikern» über die Herausforderungen moderner Gemeinwesen. Wir brauchen deshalb eine breite gesellschaftliche Diskussion über algorithmische Systeme – darüber, wie sie gestaltet und wo sie eingesetzt werden sollen. Wenn Maschinen über Menschen entscheiden, bedürfen ihre Ziele und Wirkungen einer politischen Debatte, der gezielten Beteiligung der betroffenen Bevölkerung, systematischer Transparenz über mögliche Folgen und Risiken sowie nicht zuletzt einer starken Zivilgesellschaft.

Vorbild Atomwaffensperrvertrag

Nicht alle algorithmischen Entscheidungen sind gleichermassen relevant für unsere Gesellschaft. Die automatische Rechtschreibkorrektur in der Textverarbeitung oder das computerbasierte Flottenmanagement des Mietwagenanbieters sollten im öffentlichen Diskurs nicht die gleiche Aufmerksamkeit bekommen wie Algorithmen, die über ärztliche Behandlungsmethoden oder die Länge von Haftstrafen mitentscheiden. Wo allerdings algorithmische Systeme individuelle Teilhabe am gesellschaftlichen Leben beeinflussen, müssen ihre Ziele, ihr Design und ihre Wirkung der öffentlichen Willensbildung unterliegen.

In bestimmten Situationen oder Bereichen mag das dazu führen, dass wir uns für die bewusste Verdummung künstlich intelligenter Systeme entscheiden. Wenn die globale Sicherheit, Menschenrechte oder grundlegende Prinzipien unserer Solidarsysteme in Gefahr sind, muss die Politik klare Grenzen ziehen – als nationaler Gesetzgeber und im Rahmen internationaler Abkommen. Der Atomwaffensperrvertrag ist ein solches Beispiel aus dem 20. Jahrhundert, das belegt, wie wichtig und wirksam der internationale Dialog über die möglichen Folgen und Gefahren bestimmter Technologien ist, an dessen Ende verbindliche Regeln bis hin zu Verboten stehen können.

Algorithmische Systeme sind nicht neutral, sondern sie reflektieren die Werthaltungen ihrer Entwicklerinnen und Anwender, deren Auftraggeberinnen und letztlich einer Gesellschaft. Was als ethisch richtig verstanden wird, ist kontextabhängig, kulturell unterschiedlich und kann sich mit der Zeit ändern. Die Abwägung darüber, was erlaubt ist und was nicht, muss daher als dynamischer Prozess verstanden werden und darf nie als abgeschlossen gelten. In China werden heute schon viele öffentliche Orte videoüberwacht, um mit Gesichtserkennungssoftware Kriminelle und Verdächtige in der Menschenmenge zu identifizieren. Eine Gesellschaft, die der Sicherheit sehr hohe, individuellen Freiheitsrechten dagegen weniger Bedeutung beimisst, mag das als normal empfinden. In einer Gesellschaft mit anderen Wertorientierungen hingegen dürfte der Einsatz solcher Gesichtserkennungssoftware für erhebliches Unbehagen sorgen, wenn man nicht sogar komplett auf ihren Einsatz verzichtet.

Eine derartige Werteabwägung ist kein technisches, sondern ein ethisches Problem. Dabei geht es letztlich um politische Prioritäten. Die Gretchenfrage lautet stets: Was ist uns mehr wert? Im algorithmischen Alltag werden zumeist Konflikte offengelegt, in denen mehrere Ziele im Widerstreit stehen. In Londoner Krankenhäusern etwa regeln Algorithmen die Verteilung von Patienten auf die Stationen und Betten. Je nach Programmierung kann die Software ganz unterschiedlichen Zielen und Interessen dienen: der Auslastung des Krankenhauses, der Abrechenbarkeit bei den Versicherungen, der Versorgungsqualität für die Patienten oder dem Renommee einer Institution. Diese Ansprüche können nicht gleichermassen befriedigt werden.

Wenn verschiedene Wertvorstellungen miteinander konkurrieren, dann müssen die Ziele eines algorithmischen Systems angemessen breit diskutiert werden. Die Macht über die Priorisierung von algorithmischen Zielen gehört in die Hände der Gesellschaft. Wenn bestimmte Personengruppen durch ein System besonders betroffen sind, muss garantiert sein, dass diese Gruppen oder ihre Vertreterinnen in die Gestaltung der Software miteinbezogen werden. Für das System zur Patienten-Betten-Zuteilung im Krankenhaus bedeutet das, dass neben Ärztinnen und Pflegepersonal auch Patientenvertreter und die Krankenkassen involviert werden sollten.

An Partizipation führt kein Weg vorbei

Es ist mehr als die Erfüllung lästiger Pflichten, Betroffene vor Inbetriebnahme eines algorithmischen Systems zu beteiligen. Partizipation ist zum Scheitern verurteilt, wenn sie nur als Feigenblatt dienen soll, um längst feststehende Ergebnisse pro forma auf eine breitere Basis zu stellen, schlechter Presse vorzubeugen oder gesetzliche Auflagen zu erfüllen. Ernst gemeinte Beteiligungsverfahren hingegen können ein Wettbewerbsvorteil sein. Sie helfen, Fehler frühzeitig aufzudecken und die Software durch Feedback der Betroffenen zu verbessern, so dass am Ende alle davon profitieren. Und sie können dazu beitragen, verbreitete Vorbehalte in der Bevölkerung gegenüber KI und Algorithmen abzubauen sowie Vertrauen und Legitimation zu schaffen.

In vielen Bereichen ist strukturierte Partizipation längst Standard. Das Baurecht etwa sieht gesellschaftliche Diskurse je nach Dimension eines Vorhabens explizit vor. Insbesondere auf kommunaler Ebene ist es üblich und häufig auch vorgeschrieben, dass Grossprojekte umfangreiche Beteiligungsprozesse erfahren, die über reine Informationen deutlich hinausgehen. Bürgerinnen sollen konsultiert und in die Entscheidung einbezogen werden.

Die Absicht dahinter: unterschiedliche Perspektiven und Interessen berücksichtigen, Konflikte frühzeitig erkennen, Kompromisse ergebnisoffen ausloten und somit auch die Legitimation und Akzeptanz der am Ende getroffenen Entscheidung erhöhen. Dort hingegen, wo Grossprojekte durchgeboxt werden sollen, ohne dass Betroffene über echte Einflussmöglichkeiten verfügen, sind zuletzt immer wieder massive Widerstände aufgetreten. Erinnert sei an das Bahnhofsprojekt Stuttgart 21, die Nutzung des ehemaligen Berliner Flughafens Tempelhof oder die Bewerbung der Stadt Hamburg für die Olympischen Spiele 2024.

Die analoge Welt lehrt folglich zweierlei: Ja, Beteiligung funktioniert, wenn sie will und richtig organisiert wird. Und nein, gegen den Willen der Bürger lassen sich nicht einfach klamm und heimlich Fakten schaffen. Bei wichtigen Entscheidungen führt an Partizipation kaum ein Weg vorbei. Selbst wenn am Ende das Ergebnis nicht von allen goutiert wird, sorgt ein systematischer und früher Einbezug der breiten Öffentlichkeit meist für erhöhte Zufriedenheit. Laut einer repräsentativen Untersuchung der Bertelsmann Stiftung steigert Bürgerbeteiligung für zwei Drittel der Befragten die Akzeptanz, auch wenn die eigenen Interessen letztlich nicht durchgesetzt werden können.

Transparenz über Folgen und Risiken

Das Unsichtbare sichtbar zu machen, das lernt man in der Schweiz. Wer dort bauen will, braucht ein sogenanntes Baugespann, das die geplanten Ecken und Kanten des Hauses aussteckt. Dieses Stangengerüst macht bereits vor Baubeginn sichtbar, wie das neue Vorhaben sein Umfeld beeinflussen wird. Die Anwohnerinnen haben dann hinreichend Zeit, die Pläne im Detail einzusehen und Einspruch zu erheben. Das Baugespann bleibt bis zum Ende des offiziellen Bewilligungs- und Beschwerdeverfahrens stehen und erleichtert auch der Prüfbehörde die Arbeit.

Die Schweizer Bauordnung bedient sich eines alten Grundsatzes: Um eine breite Debatte zu befeuern, braucht es starke Bilder. Doch Algorithmen sind physisch unsichtbar, und auch ihre Auswirkungen sind nicht zu sehen, solange die Software noch nicht im Einsatz ist. Das macht es schwierig, eine breite Debatte über algorithmische Systeme zu initiieren. Trotzdem müssen ihre Ziele und möglichen Konsequenzen bereits im Entstehungsprozess dokumentiert und transparent gemacht werden.

Dies sollten verpflichtende Folgeabschätzungen übernehmen. Für Industrieanlagen und andere Infrastrukturprojekte hat sich mit der seit 1985 von der Europäischen Union vorgeschriebenen Umweltverträglichkeitsprüfung ein ähnliches Instrument bewährt. Allein die Analyse, wer inwieweit vom Einsatz eines algorithmischen Systems betroffen sein könnte, wäre ein wichtiger erster Schritt, um den gesellschaftlichen Diskurs darüber anzuregen und zu versachlichen. Das amerikanische AI Now Institute, eine auf die Untersuchung der sozialen Folgen von KI spezialisierte Forschungseinrichtung, hat sich an den ersten Entwurf eines solchen «Algorithmic Impact Assessment» für den öffentlichen Sektor gewagt. Hierzulande wird eine ähnliche Idee unter dem Schlagwort «Beipackzettel für Algorithmen» diskutiert – ein Dokument, das Einsatzgebiet, Ziele, Annahmen über gesellschaftliche Nebenwirkungen sowie die Datenbasis eines algorithmischen Systems benennt.

Eine starke Lobby fürs Gemeinwohl

Digitalisierung braucht zivilgesellschaftliches Engagement. In vielen Politikbereichen wie Umwelt, Bildung, Gesundheit und Soziales wird immer wieder deutlich, welch wichtige Rolle Vereine, Stiftungen und andere gemeinnützige Organisationen einnehmen. Als Interessensvertreter verschaffen sie Verbraucherinnen, Patienten oder sozial benachteiligten Bevölkerungsgruppen das Gehör, das ihnen ansonsten im politischen Raum verwehrt bliebe. Eine solche Lobby fürs Gemeinwohl muss es dringend auch in digitalen Fragen geben. In einer Zeit, in der Zugang zum Internet als unverzichtbarer Teil öffentlicher Daseinsvorsorge gilt und Maschinen über menschliche Schicksale entscheiden, dürfen Non-Profit-Organisationen die digitalpolitische Debatte nicht länger den Partikularinteressen der Wirtschaft überlassen.

Der Dritte Sektor sollte als starker Verfechter des Gemeinwohls Algorithmen und Künstliche Intelligenz mitgestalten. Das Spektrum an Handlungsoptionen ist dabei ebenso divers wie die Zivilgesellschaft selbst. Die Öffentlichkeit sensibilisieren, Räume für Dialog und Austausch schaffen, Lösungsansätze operativ entwickeln oder finanziell fördern – je nach strategischer Ausrichtung bieten sich vielfältige Ansatzpunkte. Rezepte, um eine Debatte auch jenseits von Expertinnenkreisen anzuregen und dauerhaft am Leben zu halten, haben zivilgesellschaftliche Akteure längst entwickelt. Die Aktionen von Greenpeace etwa haben immer wieder das öffentliche Augenmerk auf Umweltprobleme gelenkt und dadurch Entscheidungen von Regierungen und Behörden sowie das Geschäftsgebaren von Unternehmen beeinflusst.

Erste zivilgesellschaftliche Initiativen widmen sich bereits der digitalen Aufklärung. So entstand Ende 2015 in Deutschland AlgorithmWatch. Die Organisation beobachtet und analysiert die Auswirkungen algorithmischer Entscheidungsprozesse auf menschliches Verhalten und zeigt ethische Konflikte auf. Zur Bundestagswahl 2017 untersuchte AlgorithmWatch den Google-Algorithmus, um herauszufinden, ob Google die Suchergebnisse im Kontext der Wahl personalisiert, und falls ja, anhand welcher Kriterien. Auch den Algorithmus der Auskunftei Schufa hat sich die Initiative vorgenommen. Mit der Auswahl dieser beiden prominenten Beispiele hat sie dazu beigetragen, der Bevölkerung die Relevanz von algorithmischen Systemen bewusster zu machen.

Auf politischen Gestaltungswillen, strukturierte Partizipation, verpflichtende Folgeabschätzungen und zivilgesellschaftliches Engagement zu verzichten, mag oft bequemer erscheinen. Das macht zwar kurzfristig vieles einfacher, kommt als Boomerang aber gleich mehrfach zurück. In Form von Qualitätsmängeln, fehlender Gemeinwohlorientierung und Widerstand. Algorithmische Systeme brauchen die Akzeptanz der Bevölkerung. Deshalb müssen wir eine ernstgemeinte gesellschaftliche Debatte über sie führen.

Ralph Müller-Eiselt und Carla Hustedt sind Digitalisierungsexperten. Müller-Eiselt verantwortet bei der Bertelsmann Stiftung das Programm «Megatrends», Hustedt leitet dort das Projekt «Ethik der Algorithmen».
Dieser Beitrag basiert auf einem Kapitel des jüngst bei DVA erschienenen Buches «Wir und die intelligenten Maschinen» von Jörg Dräger und Ralph Müller-Eiselt, an dem Hustedt mitgewirkt hat. Das Buch beschreibt anhand anschaulicher Fallbeispiele die Chancen und Risiken von Algorithmen für jeden von uns und macht konkrete Vorschläge, wie wir Künstliche Intelligenz in den Dienst der gesamten Gesellschaft stellen können.

Comment is free

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert