Egal, ob es sich um gefälschte Videos handelt, um Manipulation in Sozialen Netzwerken oder um Gesichtserkennung, die zur Überwachung eingesetzt wird: Künstliche Intelligenz könnte unsere Demokratie in Bedrängnis bringen. In dieser Story erfährst du, welche Probleme es beim Einsatz von KI gibt – und welche Lösungsansätze.
Überall Kameras. Wer sich auf den Straßen der chinesischen High-Tech-Metropole Jinan bewegt, wird ständig beobachtet. Immer wieder surren sogar Drohnen über die Stadt. An der Jing Shi Lu, eine der Hauptverkehrsadern, rasen Autos vorbei. Wer hier bei Rot über die mehrspurige Fahrbahn läuft, muss nicht mehr einfach nur 20 Yuan Strafe zahlen wie früher. Inzwischen blitzt eine Kamera auf. Sofort werden die Fotos mit einer Software zur Gesichtserkennung mit den Datenbanken abgeglichen, die die Stadt zur Verfügung hat. Dort taucht das Gesicht des Übeltäters nun auf einem Bildschirm auf – dazu Name und Adresse, an manchen Kreuzungen direkt auf einem Riesenbildschirm – noch während der Verkehrssünder die Straße überquert.
Die erste App, die dich wirklich schlauer macht.
Jetzt runterladen!Was wie eine Szene aus einem düsteren Science-Fiction-Roman wirkt, ist in China längst Realität. Das Land ist eine der weltweit führenden KI-Nationen. Artificial Intelligence (Künstliche Intelligenz) ist in China längst Staatsstrategie. Tausende Startups arbeiten fieberhaft an KI-Systemen, die auch massiv zur Überwachung eingesetzt werden – mittels Gesichtserkennung oder über andere Wege.
Der Überwachung durch die KI kann man sich kaum entziehen. In China ist es üblich, mit dem Handy zu bezahlen – so werden viele personenbezogene Daten gesammelt. Um einen neuen Handyvertrag abzuschließen, muss man sein Gesicht scannen lassen. In manche Gebäude wird man mitunter nur eingelassen, wenn man sein Gesicht in die Kamera hält, in manchen Restaurants kann man auf diese Weise sogar bezahlen. Die Bilder der zahlreichen Kameras werden mit riesigen Datenmengen abgeglichen. Verstößt etwa ein Corona-Infizierter gegen die Quarantäne, kann er sofort erkannt werden. Das Verhalten fließt in ein Sozialkreditsystem ein: ein Punktesystem, nach dem jeder Einzelne belohnt oder sanktioniert wird.
KI könnte auch für uns und unsere Demokratie gefährlich werden. Etwa mit Deep Fakes – also Audio- oder Videoaufnahmen, die mit künstlicher Intelligenz geschaffen oder verändert wurden. Der Name kommt von „Fake“ (Fälschung) und „Deep Learning“ (Vertieftes Lernen, eine Weiterentwicklung des Maschinellen Lernens). Mit solchen betrügerischen KI-Anwendungen kann man etwa das Gesicht einer Person mit einem anderen Körper verbinden oder ihr Aussagen unterschieben, die sie nie gemacht hat.
Gut gemachte Deep Fakes sind oft kaum zu enttarnen. Aber mitunter kann man sie selbst als Laie erkennen. Hinweise sind komische Bildsprünge, die sich nicht aus der gefilmten Situation erklären, unpassende Betonungen, seltsam verzerrte Formen oder Falten, wo sie nicht hingehören. Ohren, Nasen und Zähne sind für KI ebenfalls schwierig nachzubilden. Auch Laien können inzwischen Deep Fakes erstellen, mehr oder weniger überzeugend. Das kann lustig sein – in sozialer wie moralischer Hinsicht ist es aber oft gefährlich.
In einer Demokratie sollen sich Menschen ihre Meinung frei bilden können. Doch genau hierbei könnte die Nutzung von KI zum Problem werden – etwa in sozialen Netzwerken. Experten befürchten, dass sich damit leichter Fake News und Desinformation in die Welt setzen lassen.
Manipulierte Videos und gefälschte Nachrichten könnten die Demokratie destabilisieren und Amtsträgern im Wahlkampf falsche Aussagen unterschieben. Sie könnten politische Entscheidungen behindern. Umgekehrt könnten sich Politiker herausreden, eine unliebsame Aufnahme sei doch nur ein Fake. Nehmen Deep Fakes zu, wächst in der Gesellschaft wohl auch Skepsis: Was ist eigentlich echt? Wem kann ich trauen? Wer ohnehin schon an „den Medien“ zweifelt, wäre noch schneller dabei, ihnen falsche Berichterstattung oder Manipulation vorzuwerfen.
Auch warnen Wissenschaftler*innen nahezu der gesamten Europäischen Union, dass digitale Medien durch ihre Algorithmen zur Radikalisierung beitragen. Denn sie sorgen dafür, dass immer solche Inhalte gezeigt werden, die die Menschen möglichst lange auf der Plattform halten und zur Interaktion bewegen. Dazu gehören Inhalte, die wütende Kommentare hervorrufen. Ein Beispiel wäre die Fake-Geschichte über Geflüchtete, die angeblich an eine Kirchenwand urinieren – obwohl sie eigentlich beten. Obwohl IT-Konzerne beteuern, solche Falschnachrichten zu bekämpfen, werden diese oft schon massenhaft geteilt, bevor sie von den Social-Media-Plattformen verschwinden.
Theoretisch könnte es aber auch ganz anders laufen. Künstliche Intelligenz könnte im Kampf gegen Fake News Anwendung finden. Verschiedene Technologieunternehmen arbeiten bereits mithilfe von KI daran, manipulierte Videos zu erkennen.
KI könnte auch helfen, einer Radikalisierung in den sozialen Medien entgegenzusteuern. Droht jemand zum Verschwörungserzähler zu werden, könnten ihm absichtlich andere Inhalte außerhalb der Filterblase angezeigt werden: Faktencheck, Richtigstellungen, alternative Positionen und Gegenargumente. Politikwissenschaftler*innen sehen in KI durchaus Potenzial für eine aktive Bürgerbeteiligung an politischen Entscheidungen. Das Münchner Institut für Sozialwissenschaftliche Forschung hat in einem Projekt drei unterschiedliche Perspektiven von KI auf demokratische Partizipation (Teilhabe) herausgearbeitet. Dabei geht es zum einen um die Unabhängigkeit von Bürger*innen und Institutionen: KI soll nicht in Konkurrenz zur Individualität des Menschen treten. Die zweite Perspektive stellt Künstliche Intelligenz als unterstützendes Medium für die demokratische Teilhabe in den Fokus. Ein Beispiel dafür ist das Hamburger Projekt SmartCity, bei dem Bürger*innen ihre Stadt aktiv mitgestalten können. Die KI hilft hier vor allem dabei, die vielen Meinungen und Anregungen auszuwerten. Die dritte Perspektive wiederum betrachtet die Einbeziehung von KI bei politischen Regulierungsprozessen, welche die KI selbst betreffen.
Auch immer mehr Wirtschaftsunternehmen konzentrieren sich auf KI, um im Wettbewerb der Zukunft zu bestehen. Ob in Medizin, Industrie, Mobilität oder Kundenservice, überall steht die Arbeitswelt vor einem tiefgreifenden Wandel, werden Voraussetzungen für und mögliche Auswirkungen von KI auf Beschäftigung und Produktivität diskutiert. Und seit Jahren taucht immer wieder die Frage auf: Werden Maschinen bald den Menschen völlig ersetzen? Oder, noch krasser: Übernehmen bald humanoide Roboter die Herrschaft?
Zusammenfassung
KI kann via Gesichtserkennung zur Massenüberwachung eingesetzt werden – wie etwa in China.
Eine weitere Gefahr können „Deepfakes“ sein – also Audios oder Videos, die mit KI manipuliert wurden.
Wenn durch Algorithmen in sozialen Netzwerken polarisierende Inhalte erzeugt werden, könnte das die freie Meinungsbildung bedrohen.
Mitunter wird KI selbst gegen diese Probleme eingesetzt, etwa im Kampf gegen Deep Fakes.
Teste dein Wissen im Quiz
A) Ihre Stadt aktiv mitgestalten
B) Die Temperatur in Klassenräumen regeln
C) Überall freies WLan nutzen
D) Auf Laufbändern zur Arbeit gleiten
Richtige Antworten:
1. A) Deep Fake
2. C) Zur Überwachung der Bevölkerung
3. D) An seltsamen Bildsprüngen
4. B) Politikern werden falsche Aussagen untergeschoben
5. A) Ihre Stadt aktiv mitgestalten