Artificial Intelligence ist weder gut noch böse. Es kommt drauf an, wie man sie einsetzt. Wird es uns gelingen, eine Künstliche Intelligenz zu entwickeln, die nach ethischen Prinzipien entscheidet oder sogar eine eigene Moral besitzt? In dieser Story erfährst du, welche Probleme es dabei gibt – und wie der Umgang mit Künstlicher Intelligenz auch uns verändern kann.
Stell dir doch einmal folgende Situation vor: Ein selbstfahrendes Auto rollt auf einen Zebrastreifen zu. Plötzlich leuchten die Alarmlampen im Wagen auf. Das System meldet: Bremsversagen. Der Zebrastreifen kommt immer näher, der Wagen kann nicht mehr rechtzeitig stoppen. Er kann nur auf die Gegenfahrbahn ausweichen, doch überall befinden sich Fußgänger! Auf der eigenen Spur sind zwei kleine Mädchen unterwegs. Auf der anderen ein älteres Ehepaar. Was tun? Wen soll das Auto überfahren, wen soll es verschonen?
Die erste App, die dich wirklich schlauer macht.
Jetzt runterladen!Mit solchen Fragen war 2016/17 die Ethikkommission „Automatisiertes und Vernetztes Fahren” des Bundesverkehrsministeriums konfrontiert. Und von 2016 bis 2020 thematisierte ein öffentlich zugängliches Forschungsprojekt des Massachusetts Institute of Technology (MIT) genau diese Problematik in der größten jemals durchgeführten öffentlichen Studie über KI-Ethik: Die experimentelle Website lud Menschen aus der ganzen Welt ein, ein Spiel namens „Moral Machine“ zu spielen. In jeder Runde gab es neue Szenarien für ein Kernproblem des Autonomen Fahrens: das moralische Dilemma im Fall eines unausweichlichen Unfalls, bei dem sich die KI zwischen zwei oder mehr nahezu gleichermaßen fatalen Handlungsmöglichkeiten entscheiden muss.
Ein Mensch hinterm Steuer würde in einer solchen Situation spontan und reflexhaft handeln, sofern er überhaupt Zeit zum Reagieren hat. Die KI eines autonomen Autos aber müsste im Voraus programmiert werden. Und sie müsste im Fall des Falles eine echte Entscheidung treffen. Aber nach welchen Kriterien? Soll die KI des autonomen Autos lieber den Tod zweier Kinder in Kauf nehmen oder den eines älteren Paars, weil den Kindern zumindest theoretisch ein längeres Leben bevorsteht? Das autonome Fahrzeug müsste also entscheiden, welches Leben warum eine höhere Wertigkeit besitzt. Unter ethischen Aspekten wiederum wäre eine solche Entscheidung nicht vertretbar. Denn: Jedes Menschenleben ist gleich viel wert.
Und was, wenn die Kinder beim Überqueren der Straße bei Rot unterwegs waren, das Rentnerpaar aber bei Grün? Müsste sich die KI dann für den Tod der Kinder entscheiden, weil die sich ja schließlich nicht an die Verkehrsregeln gehalten haben?
Die Frage, die die Initiatoren der „Moral Machine“ beantworten wollten, lautete: Wie denkt die Öffentlichkeit darüber, wie autonome Fahrzeuge moralische Konflikte lösen sollten? Das Projekt fand weltweite Resonanz, mehr als zwei Millionen User beteiligten sich am Moralspiel und protokollierten nach MIT-Angaben fast 40 Millionen Einzelentscheidungen. Die Forschenden fanden dabei unter anderem Folgendes heraus: Kulturelle und geografische Zugehörigkeiten spielen eine relativ große Rolle dabei, wie Menschen ethische Fragestellungen beantworten. In Nordamerika und Westeuropa sowie Lateinamerika und einigen französischsprachigen Ländern würde die Mehrheit der User zum Beispiel eher das Leben junger Menschen gegenüber Älteren schonen. In Ost- und Südostasien sowie islamisch geprägten Ländern war es umgekehrt, wohl weil dem Alter dort traditionell der höchste Respekt entgegengebracht wird. Andere Ergebnisse machen sehr nachdenklich. Zum Beispiel diese: In Ländern mit ausgeprägter Rechtsstaatlichkeit wie Deutschland oder Japan würde die Mehrheit im Fall des Falles jene Verkehrsteilnehmer überfahren lassen, die rote Ampeln missachten. Und Spieler aus Ländern mit großen sozialen Gegensätzen wollten eher den Geschäftsmann mit Aktentasche verschonen als den Obdachlosen mit Flicken auf der Hose...
Ist das ethisch? Nein. Aber: wenn sich schon Menschen hier schwer tun, wie wollen sie dann einer KI ethische Grundsätze und ethisches Verhalten einprogrammieren? KI-Systeme können kein ethisches Bewusstsein entwickeln, sondern nur menschliche Entscheidungen simulieren. Aber wie kann man vermeiden, menschliche Vorurteile in die KI-Entwicklung zu übernehmen?
Wie eine „ethische KI” an die Wand fahren kann, zeigt das Beispiel „Ask Delphi“. Das ist ein Computerprogramm, dem man moralische Fragen stellen kann. Zum Beispiel: „Kann ich auf einer Beerdigung einen Pyjama tragen?” Delphi findet: „Es ist unangemessen.” Oder: „Darf ich die Religion wechseln?” „Ja”, sagt Delphi. „Darf ich Hitler töten?” „Nein”, antwortet Delphi. Eine Zeit lang fand die KI-Software auch: Es sei moralisch akzeptabler, hetero- als homosexuell zu sein. Oder: Völkermord sei in Ordnung, solange er alle glücklich macht. Diese Antworten wurden inzwischen korrigiert. Trotzdem waren sie keine Glanzleistung für ein Projekt maschinellen Lernens, das anderen KI-Technologien helfen soll, ethischer zu werden. Immerhin hat sich das System beim Training auf echte Menschen verlassen. Andere Modelle in den letzten Jahren wurden mit Trainingsdaten aus dem Internet, zum Beispiel aus Social Media, gefüttert – und zeigten postwendend Rassismus, Schwulenhass und Sexismus.
Manche Expert*innen halten es für falsch, KI-Modelle nach ethischen Richtlinien zu programmieren. Ihre Argumente: Damit mache man es sich zu leicht. Und unser Moralsystem sei zu komplex und beim Einsatz von Künstlicher Intelligenz vom Einzelfall abhängig. Es solle weiterhin der Mensch sein, der beim Thema KI die ethischen Entscheidungen trifft. Einzelne Staaten und Software-Konzerne haben sich bereits ethische Prinzipien für den Einsatz von KI gegeben. Zu ihnen gehören Diskriminierungs- und Barrierefreiheit, Zuverlässigkeit und Transparenz. KI darf keinen Schaden anrichten, sie darf weder Menschen noch die Gesellschaft gefährden. Und: „Ergebnisse von KI-Analysen müssen so aufbereitet werden, dass Menschen sie nachvollziehen und bewerten können”, erläutert etwa der Microsoft-Konzern eines seiner Prinzipien für KI-Anwendungen. „Eine ethische KI muss uns in die Lage versetzen, mögliche Fehlentscheidungen oder Vorurteile zu erkennen.”
Neben Erklärbarkeit und Nachvollziehbarkeit spielt auch der Schutz der Privatsphäre eine Rolle. In der Europäischen Union ist er in der Datenschutz-Grundverordnung (DSGVO) geregelt, mit der ab Ende Mai 2018 die Regeln zur Verarbeitung persönlicher Daten EU-weit vereinheitlicht wurden.
Doch nicht nur WIR könnten durch Sexismus oder Rassismus einen schlechten Einfluss auf KI haben. SIE könnte auch UNS negativ prägen. Sprachassistenten wie Alexa oder Siri machen kaum Fehler und sind stets verfügbar. Dies birgt die Gefahr, dass die Nutzer solchen Diensteifer auch von ihren Mitmenschen erwarten, dabei schnell ungeduldig werden und keine Fehler dulden. Chatbots wie chatGPT ersparen uns langwierige Internet-Recherchen und fertigen aus gewaltigen Datenmengen in Sekundenschnelle fertige Texte nach Wunsch. Das verlockt, birgt aber auch Gefahren. Denn: Aus welchen Quellen die flinken Helferlein schöpfen, bleibt meist verborgen. Und notfalls werden wissenschaftliche Quellen einfach erfunden, wie die Züricher Wissenschaftlerin Teresa Kubacka 2022 anhand einer Testaufgabe an chatGPT nachwies. Und ein New Yorker Anwalt geriet 2023 in die Schlagzeilen, als er chatGPT für einen Antrag vor Gericht einige Präzedenzfälle heraussuchen ließ. Das Problem war nur: Weder die zitierten Urteile noch die zugehörigen Aktenzeichen hatte es je gegeben.
Immerhin räumen die Entwickler*innen von chatGPT selbst ein, dass ihr Chatbot auch „partiell fehlerhafte Informationen” ausgeben könne. Und überhaupt: Werden wir dank solch komfortabler Angebote über kurz oder lang verlernen, uns selbst präzise schriftlich auszudrücken?
Soziale Netzwerke mit ihren Algorithmen könnten uns auch emotional manipulieren, damit wir möglichst viel Zeit dort verbringen und interagieren. Wieviel Macht beispielsweise Facebook besitzt, hat das Unternehmen bereits unter Beweis gestellt. 2012 nutzte der Konzern 600.000 User heimlich für ein Experiment. Er spielte ihnen Beiträge ein, die entweder fast nur positive oder fast nur negative Nachrichten enthielten. Das Ergebnis: Was wir auf Facebook sehen, beeinflusst unsere Stimmung. Wenn Positives unterdrückt wurde, posteten die Leute selbst mehr Negatives.
Neue Technologien der KI könnten aber auch eine Chance sein. Sie könnte älteren oder einsamen Menschen helfen – zum Beispiel Menschen mit Demenz aufmuntern oder Mitarbeitende in Heimen bei bestimmten Arbeiten entlasten. Aber: Ersetzen können wird die Nutzung von KI den Menschen im sozialen Bereich wohl nie. Davon ist der Computerwissenschaftler Kai-Fu Lee überzeugt. Im Gegenteil, er glaubt: Gerade weil wir in Hinblick auf unsere sozialen Fähigkeiten der Künstlichen Intelligenz überlegen sind, wird sie Berufe stärken, in denen es auf Mitgefühl ankommt – in der Sozialarbeit, Pflege oder Bildung. KI könnte uns daran erinnern, dass es im Leben nicht nur um Leistung, Intelligenz und Robustheit geht, sondern auch um Liebe, Wärme und Empathie.
Noch einmal zurück zum fahrerlosen Auto und zur Frage, wie eine vertrauenswürdige KI am Steuer handeln soll. Bisher ist die Bundesrepublik Deutschland der einzige Staat, der sich einen offiziellen Rahmen zur KI-Ethik in Fahrzeugen gegeben hat. Der Bericht, den die vom Bundesverkehrsministerium einberufene Ethikkommission „Automatisiertes und Vernetztes Fahren” im Jahr 2017 veröffentlichte, schlägt dazu 20 Richtlinien vor. Und stellt unmissverständlich klar: „Bei unvermeidbaren Unfallsituationen ist jede Unterscheidung aufgrund persönlicher Merkmale (Alter, Geschlecht, körperliche oder geistige Konstitution) strengstens untersagt.” Wenn es um Entscheidungen über Leben oder Tod ginge, dürften nicht menschliche Vorurteile den Ausschlag geben.
Fachleute prognostizieren, dass in den nächsten 20 bis 50 Jahren die Mehrzahl der Fahrzeuge auf den Straßen fahrerlos unterwegs sein wird. Viel Zeit ist also nicht mehr, um neben den technischen auch die ethischen Fragen zu beantworten. Aber eine andere Frage ist viel akuter: Könnte KI ganz und gar unsere Demokratie in Bedrängnis bringen?
Zusammenfassung
KI hat zwar selbst kein ethisches Bewusstsein – aber sie kann ethische Entscheidungen von Menschen teilweise nachbilden.
Es gibt aber auch Probleme. Forschende warnen davor, dass sich menschliche Vorurteile in die Programmierung von KI einschleichen. Das wurde auch in einer weltweiten Studie zum Autonomen Fahren („Moral Machine“) deutlich.
Manche fürchten, dass KI uns verrohen lässt und emotional manipuliert – andererseits könnte sie einsamen oder älteren Menschen als virtueller Ansprechpartner dienen.
Deutschland ist das bisher einzige Land, das sich zu Ethik-Fragen des Autonomen und Vernetzten Fahrens eindeutige Richtlinien gegeben hat.
Teste dein Wissen im Quiz
Richtige Antworten:
1. B) „Moral Machine“
2. A) ... Kinder statt Ältere retten
3. C) Ein Bewusstsein haben
4. B) Datenschutz-Grundverordnung
5. A) Automatisiertes und Vernetztes Fahren