Man stelle sich vor, die tunesische Regierung unter dem autoritären Machthaber Ben Ali hätte im Dezember 2010 gewusst, welche Folgen der Entschluss eines einfachen Obsthändlers haben würde, sich aus Verzweiflung öffentlich selbst zu verbrennen.
Der Tod des Obstverkäufers Mohamed Bouazizi löste Massendemonstrationen aus, die Ben Ali zwangen, Tunesien zu verlassen. Die Revolution inspirierte Proteste in weiteren Ländern - der Nahe Osten veränderte sich grundlegend.
Was aber, wenn das Regime über durch Künstliche Intelligenz gestützte Werkzeuge verfügt hätte, die eine solche Entwicklung frühzeitig erkannt hätten? Behörden hätten Proteste womöglich unterbinden oder Anführer einer regierungsfeindlichen Bewegung festsetzen können, noch bevor sie an Einfluss gewann.
KI könnte sich zunehmend für autoritäre Zwecke missbrauchen lassen.
"Wir befürchten, dass Akteure mit böswilligen Absichten Daten missbrauchen könnten", so Rauh.
Noch seien die Modelle nicht so präzise, dass autoritäre Staaten sie ohne Weiteres missbrauchen könnten. "Sie arbeiten mit Durchschnittswerten. Sie sind keine Zauberei", sagt Rauh. Doch mit besseren Prognosen und mehr Daten könnten auch die Risiken steigen.
Modelle Künstlicher Intelligenz lernen aus großen Datenmengen.
"Es gibt derzeit kein KI-gestütztes System, das geopolitische Brennpunkte perfekt vorhersagen kann", schrieben Forscher des britischen Alan Turing Institute im März 2025.
Gleichwohl gewinnen Konfliktprognosen und Risikoanalysen mithilfe von KI im öffentlichen wie im privaten Sektor an Bedeutung.
Damini Satija, Direktorin von Amnesty Tech, das zu Amnesty International gehört, warnt vor strukturellen Problemen: "Damit die Tools funktionieren, müssen sie mit bestehenden Datensätzen trainiert werden. So reproduzieren sie Fehler und Verzerrungen realer Daten." Zudem beruhten sie auf der Annahme, komplexes menschliches Verhalten lasse sich auf wenige Indikatoren reduzieren - eine Annahme, die etwa im Bereich der Kriminalitätsprognosen bereits widerlegt worden sei.
Einige Autokratien im Nahen Osten könnten zu den ersten gehören, die KI-gestützte Konfliktprognosen zur Unterdrückung von Dissens einsetzen.
"Der Nahe Osten befindet sich seit Langem im Spannungsfeld zwischen Technologie und politischer Macht", schrieb der Forscher Arash Beidollahkhani von der Universität Manchester in der Fachzeitschrift "Democratization".
Saudi-Arabien, die Vereinigten Arabischen Emirate, Iran, Ägypten und Bahrain setzen bereits fortgeschrittene Technologien gegen Oppositionelle ein.
Die VAE betreiben mehrere "Safe City"-Projekte mit umfassender Überwachungs- und Verhaltensanalyse. Finanzielle Ressourcen und politische Strukturen ermöglichen eine weitgehende Integration solcher Systeme - ohne öffentliche Rechenschaftspflicht.
Ein Teil der eingesetzten Technologien stammt aus China, wo KI bereits zur Unterdrückung abweichender Meinungen genutzt wird.
"Wenn eine Regierung - egal welcher Art - gegen Dissens vorgehen will, gibt es keinen Grund, warum sie nicht auch KI-Werkzeuge einsetzen sollte", sagt Amnesty-Tech-Direktorin Satija. Sie warnt, dass bereits heutige Systeme wie Predictive Policing abschreckend wirkten. Aktivisten befürchteten, leichter identifiziert zu werden - und verzichteten deshalb auf Proteste. "Unsere größten Sorgen gelten der bestehenden Infrastruktur und ihren Möglichkeiten."
Aus dem Englischen adaptiert von Kersten Knipp