Achtung, Algorithmus!

Wie können wir technisch perfekte Algorithmen auch ethisch korrekt gestalten?

Die digitale Welt fairer machen

Alexander Ladwein und Louis Longin von ThinkTech über Probleme von unethischen Algorithmen und mögliche Lösungen. 

Künstliche Intelligenz erobert unser Leben in vielen Bereichen und Algorithmen bestimmen längst unseren Alltag: Sie geben Kaufempfehlungen, sortieren für Unternehmen Job-Bewerber aus oder legen fest, ob jemand kreditwürdig ist. Doch Algorithmen haben kein Bewusstsein dafür, ob ihre Ergebnisse ethisch korrekt sind. Sie pfeifen auf Werte wie Gleichberechtigung oder Teilhabe – und das kann schwerwiegende Folgen haben. Genau deshalb haben Studierende aus München den Verein ThinkTech gegründet. Ein Interview mit Vorstand Alexander Ladwein (25) und Academic Director Louis Longin (27) über die Herausforderungen für eine Gesellschaft, in der die Maschine für den Menschen entscheidet. 

Wie kam es zu der Idee, einen Verein zu gründen, der sich mit der Ethik von Algorithmen beschäftigt? 

Alexander Ladwein: Das war Ende 2017, als sich die drei Gründer, die alle aus den Fachbereichen Informatik und Elektrotechnik kommen, während des Studiums intensiv mit maschinellem Lernen und künstlicher Intelligenz auseinandergesetzt haben. Damals sind die Drei auf die ethischen und gesellschaftlichen Probleme gestoßen, die Algorithmen mit sich bringen können, nur mussten sie feststellen, dass viele ihrer Kollegen kein Bewusstsein für diese Problematik hatten. Also boten sie direkt für Entwickler einen Workshop an, in dem sich etwa 50 Interessierte Gedanken zu dem Thema gemacht haben. Auch ich war damals als Student der Elektrotechnik erstmals dabei. Die Ergebnisse wurden einem Publikum von 100 Leuten präsentiert. Am Ende gab es den Wunsch, das Thema weiter zu verfolgen. So entstand zunächst die Initiative ConsciousCoders, aus der Anfang November dieses Jahres der Verein ThinkTech wurde. Mittlerweile sind wir etwa 20 Leute.    
 

 

Und wer macht da alles mit?

Louis Longin: Längst nicht nur Entwickler – im Team gibt es Juristen, Ingenieure, aber auch Studierende der Gesellschaftswissenschaften. Ich selbst promoviere im Fachbereich Philosophie. Wir haben den Verein bewusst breiter ausgerichtet, weil es nicht reicht, sich nur mit der Technik zu beschäftigen, wenn es um Algorithmen geht. Es gibt auch eine ethische Problematik, die eine interdisziplinäre Diskussion erfordert, um vor allem Entscheidungsträger unserer Gesellschaft zu sensibilisieren. Mit ThinkTech klären wir darüber auf Kongressen und in Workshops auf, außerdem haben wir einzelne Topic-Groups, die sich zu Bereichen wie Demokratie, Umwelt, Gesundheit und Fairness austauschen.   

Was ist denn so gefährlich an den Algorithmen? 

An einem Algorithmus ist zunächst nichts gefährlich, es sei denn, er wurde mit schlechter Intention entwickelt oder eingesetzt, wie es zum Beispiel bei Cyberangriffen oder Meinungsmanipulation vorkommt. Für unseren Alltag ist es in erster Linie problematisch, wenn die Ergebnisse eines Algorithmus ungeprüft übernommen werden. Amazon wollte zum Beispiel 2014 durch einen Algorithmus die besten Job-Bewerber herausfiltern – am Ende waren das nur Männer. Das lag daran, dass ein Algorithmus immer aufgrund von Daten aus der Vergangenheit entscheidet, nur bestand die Belegschaft damals hauptsächlich aus Männern, deshalb fielen Frauen durchs Raster. Technisch hat der Algorithmus zwar alles richtig gemacht, aber das Ergebnis ist nicht wünschenswert, und es entsteht ein ethisches Problem. Am Ende geht es also darum, was wir aus den Ergebnissen machen, die der Algorithmus hervorbringt. Die Entwickler von Amazon brachten dem Algorithmus schließlich von Hand bei, Frauen als Bewerberinnen gleichwertig zu bewerten.

Gibt es aktuelle Beispiele für den umstrittenen Einsatz von Algorithmen?

In Österreich wird derzeit ein Algorithmus für den Arbeitsmarktservice getestet, der helfen soll, Fördergelder für Arbeitssuchende zu verteilen. Dafür wurde ein Ranking nach verschiedenen Kriterien erstellt. Am Ende schnitten alleinerziehende Frauen mit am schlechtesten ab, weil sie geringere Jobchancen haben, und demnach nicht gefördert werden sollten. Der Algorithmus hat technisch funktioniert, aber das Ergebnis ist nicht fair und stellt ein gesellschaftliches Problem dar. Wenn wir uns nun danach richten, was der Algorithmus gesagt hat, würden wir unsere aktuellen gesellschaftlichen Werte wieder daran anpassen, wie sie in der Vergangenheit waren. Dass zum Beispiel Frauen mit Kindern weniger Chancen auf eine Förderung haben. Das Beispiel wird zurzeit zurecht sehr kritisch diskutiert.

Sollte man den Algorithmus ändern oder eher überlegen, was mit dem Ergebnis zu tun ist?

In beide Richtungen wird gerade geforscht, und man überlegt, wie man das Dilemma lösen kann. Ansätze wären auf der technischen Seite, bestimmte Parameter zur Klassifizierung wie z.B. das Geschlecht auszublenden, das ist aber schwer umzusetzen, da der Algorithmus sich diese Informationen anderweitig erschließen kann. Aktuell ist es am einfachsten, sich der Limitationen durch den Algorithmus bewusst zu sein und seine Entscheidung nicht als Nonplusultra zu sehen. In dem Arbeitsmarktservice-Beispiel kann nun überlegt werden, ob man Frauen oder Alleinerziehenden andere Förderung zur Verfügung stellen will. Oder ob Fördermittel bewusst eingesetzt werden sollten, um eine erhöhte Fairness zu erreichen. 

Was bedeutet es für die Demokratie, wenn Algorithmen Entscheidungen fällen?

Wir müssen akzeptieren, dass sich der Prozess der Meinungsbildung innerhalb der Gesellschaft stark geändert hat. Früher waren es die Journalisten, die als Gatekeeper die Informationen gefiltert haben. Heute werden Informationen im digitalen Raum meist über die Algorithmen von Facebook und Google gefiltert und dem User aufgrund seiner Interessen angeboten. Das birgt Probleme für die Meinungsbildung, wie wir im Fall von Cambridge Analytica gesehen haben: Deren Datenanalyse von 50 Millionen Facebook-Profilen hat offenbar dazu beigetragen, Donald Trump ins Amt zu hieven, weil potentielle Wähler erkannt und regelmäßig mit gefärbten Infos versorgt werden konnten. Mächtige Firmen wie Google oder Facebook haben ihre eigenen Interessen, umso schwerer wird es im demokratischen Kontext, gut informiert zu sein. Dessen muss man sich bewusst sein, und nicht nur auf Informationen vertrauen, die einem im Netz vorgeschlagen werden.

Wer überprüft, ob Algorithmen fair eingesetzt werden. Sollte es dafür einen TÜV geben?

Alexander Ladwein: Es gibt bereits Überlegungen der Bundesregierung, ein „KI-Observatorium“ im Arbeitsministerium einzurichten, das den Einsatz von künstlicher Intelligenz überwacht, aber bisher fehlen dazu noch genaue Informationen. Ein TÜV ist ein spannendes Thema, um in gewissen Bereichen Standards zu etablieren, beispielsweise in demokratischen Meinungsbildungsprozessen. Dort könnten Kontrollmechanismen dafür sorgen, dass z.B. radikalere Positionen nicht automatisch geteilt werden. Oder auch im Rüstungsbereich wäre Kontrolle sinnvoll. Allerdings ist ein Mittelweg gefragt. Es bringt nichts, überall digitale Grenzen zu ziehen oder Algorithmen offenzulegen. Das würde auch den wirtschaftlichen Fortschritt bremsen. Deutschland allein kann hier sicher wenig bewirken, da sollte auf europäischer oder sogar globaler Ebene gedacht werden, zum Beispiel bei den Vereinten Nationen. Schließlich ist das Internet ein globales Phänomen. 

Was kann ich als Einzelner selbst tun, um Algorithmen nicht ausgeliefert zu sein?

Möglichst wenig Spuren im Netz hinterlassen, denn durch ein eingeschränktes Nutzerprofil wird man für Algorithmen weniger vorhersagbar. Das bedeutet: Cookies regelmäßig löschen und Werbung blockieren. Der Tipp für Faule: die Privat-Einstellung im Browser aktivieren. Für Fortgeschrittene: Privatsphäre-Addons installieren und einen etablierten Open-Source-Browser verwenden, dann ist man schon ein Stück sicherer unterwegs.  

Das Interview führte Rena Beeg für die Gemeinnützige Hertie-Stiftung

Demokratie stärken

Im Arbeitsgebiet „Demokratie stärken“ untersuchen wir die Grundlagen unseres Zusammenhalts, machen sie erlebbar, sorgen für ihre Weiterentwicklung und verteidigen sie gegen radikale Gegner. Um dieses Ziel zu erreichen, engagieren wir uns und fördern Institutionen oder Personen, die auf beispielhafte Weise unsere Demokratie stärken. Unsere Handlungsfelder hierfür sind Bildung, Integration und eine aktive Zivilgesellschaft.

Mehr über den Bereich