Der Ukrainekrieg markiert den Beginn einer neuen Ära der Militärgeschichte. Es ist der erste grossflächige Konflikt der Menschheitshistorie, der durch den massenhaften Einsatz von Kampfdrohnen, KI-gestützten Zielsystemen und digitaler Kriegsführung bestimmt wird. Kampfhandlungen, die früher durch menschliche Soldaten bestimmt wurden, werden zunehmend von algorithmischen Systemen unterstützt und verbessert – und in einigen Fällen auch bereits automatisiert durchgeführt.  

Partner-Inhalte
 
 
 
 
 
 

Die Ukraine wird von Experten als das erste grosse Testfeld der ethischen Fragen und Möglichkeiten dieser neuen Ära bezeichnet. Cornelius Boersch, Tech-Unternehmer und Angel-Investor mit über 450 Beteiligungen weltweit, ist überzeugt von KI-Kampfdrohnen in der militärischen Kriegsführung: «Europa muss ehrlich zu sich sein: Was wir derzeit an Ausrüstung und Technologie einkaufen, ist nicht zeitgemäss, sondern veraltet und nutzlos.»  

Schwarmangriffe von KI-Drohnen 

So rechnet er vor, wie eine einzelne Kampfdrohne, für gerade einmal 2000 Franken hergestellt, heute bereits einen millionenschweren Panzer zerstören kann. Für den Abschuss eines Helikopters reiche bereits eine 1000-Franken-Drohne. «Der Krieg in der Ukraine wäre ohne westliche Drohnenlieferungen längst verloren, nur schon aus ökonomischen Gründen», so Boersch. Er sieht die Zukunft des Krieges in Schwarmangriffen von KI-Drohnen, welche die Luftabwehr der Gegenseite überfordern und ihre Ziele an Land präzise eliminieren, bevor diese überhaupt reagieren können. 

Doch auf diese Maschinen-Revolution wird aktiv militärisch reagiert. Störsignale im elektromagnetischen Raum, Hackerangriffe und Cyberattacken holen Drohnen vom Himmel. Auf Panzern werden visuelle Tarnmuster und ablenkende Gegenstände angebracht, um die KI-gesteuerten Kameras der Drohnen zu verwirren, sodass diese die Panzer nicht mehr als solche erkennen. Auf diese Taktiken wird wiederum reagiert mit verbesserten Software-Updates der Drohnen, um sie resistenter gegen Störungen und intelligenter in der Zielerkennung zu machen. Es ist ein Wettrennen, an dem Leben hängen. 

Benjamin Bargetzi zählt zu Europas meistgefragten Vordenkern im Bereich Künstliche Intelligenz und Neuroforschung. Er berät globale Grössen wie Klaus Schwab zu Zukunftstechnologien und arbeitete für Google, Amazon und das WEF. 

Der Ukrainekrieg ist ein Drohnenkrieg

Frank Sauer erforscht seit 2007 die Auswirkungen von KI auf das Militär. Er erklärt, wie Drohnen signifikant weniger anfällig für feindliche Störungen werden, je autonomer sie operieren. Bei menschlich ferngesteuerten Drohnen biete die ständige Funkverbindung zum Bediener sowie die klar identifizierbaren Kommunikationsprotokolle Raum für Eingriffe und somit Gegenwehr, die bei einer autonomen Kampfdrohne nicht gegeben sind. Kampfmaschinen, so Sauer, könnten sich technologisch gesehen heute schon autonom bewegen, von sich aus rasant Ziele erkennen – und automatisiert tödlich schiessen. Aus völkerrechtlicher Sicht ist der Einsatz solcher gänzlich autonomer Waffensysteme (auf eng. «LAWS»; Lethal Autonomous Weapon Systems) aber stark umstritten. So ist in der Regel aus ethischen Gründen immer noch ein Mensch «in the loop» (entscheidet über tödlichen Einsatz) oder zumindest «on the loop» (überwachend, könnte eingreifen). 

Der derzeitige Trend gehe jedoch klar in Richtung sogenannter ATR-Drohnen – Systeme, die, sobald die Funkverbindung zum Menschen abreisst, fortan ohne menschliches Zutun Ziele automatisch erkennen und von sich aus eliminieren. «Um Masse aufs Gefechtsfeld zu bringen, braucht es solche Autonomie, das ist unumgänglich», so Sauer. Laut ihm wachse vor diesem Hintergrund der Druck auf Europa und die Nato, völkerrechtskonforme Technologien zu entwickeln, um internationale ethische Standards als Vorbild zu setzen. Gleichzeitig appelliert Sauer für eine zügige Aufrüstung, um allfällige Invasionen Europas präventiv abzuschrecken: «Der Ukraine-Russland-Krieg ist ein Drohnenkrieg. Wer diese neue Taktik nun meistert, gewinnt.» Dennoch sieht er klassische Elemente wie Panzer, Artillerie und Soldaten weiterhin als relevant, auch in der Zukunft. Sie müssen jedoch grundlegend mit neuen Technologien und Möglichkeiten ausgestattet werden. 

Europa wartet ab, US-Tech-Milliardäre investieren

Nüchterner sieht dies Klaus Hommels, Verantwortlicher des Venture Funds der Nato und Gründer der Beteiligungsgesellschaft Lakestar: «Übergangsweise brauchen wir noch Soldaten, ja. Doch perspektivisch wird der Grossteil an menschlichen Soldaten und klassischen Technologien überflüssig. Der Krieg der Zukunft wird von Maschinen geführt und entschieden. Effizienter. Schneller. Präziser.» 

Während Europa abwartet, haben US-Tech-Milliardäre längst über 130 Milliarden Dollar in militärische Innovation und Verteidigungs-Start-ups investiert. Ihr Ziel: Amerikas technologische Vormachtstellung im globalen Machtkampf zu sichern. Der ehemalige Google-CEO Eric Schmidt betont: «Zum ersten Mal seit dem Zweiten Weltkrieg ist Amerikas militärische Vormachtstellung bedroht. KI wird die Weltordnung neu verteilen.» Er fordert eine radikale Modernisierung. Peter Thiel, Gründer von Firmen wie PayPal und Palantir, geht einen Schritt weiter: Reine Abschreckung reicht ihm nicht. Er setzt auf Dominanz. Amerika brauche technologische Systeme und Waffen, die nicht nur überlegen, sondern in ihrer Stärke für den Rest der Welt uneinholbar sein sollen. 

Revolution der Schweizer Militärtechnologie

Wie sieht es in der Schweiz aus? Mathias Volken, Pressesprecher der Schweizer Armee: «Es findet eine grundlegende Revolution der Militärtechnologie statt. Die Armee wird ihre Verteidigungsfähigkeit in allen Wirkungsräumen – Boden, Luft, Cyberraum, elektromagnetischer Raum, Weltraum und Informationsraum – gezielt stärken.» Auch das Kommando Cyber der Schweizer Armee greift auf KI zurück. «Künstliche Intelligenz ist durch ihre Geschwindigkeit und Skalierbarkeit in der Lage, Cyberangriffe schneller und präziser abzuwehren, als es der Mensch kann. Dennoch bleibt das menschliche Element weiterhin von zentraler Bedeutung», so Volken.

Maria-Rosaria Taddeo von der Universität Oxford forscht zu ethischen Fragen an der Schnittstelle von Technologie und Militär. «Bereits während der US-Invasion des Iraks wurde deutlich, welches strategische Potenzial in Drohnen und datengetriebener Kriegsführung liegt», so die Professorin. Spätestens die Ukraine-Invasion habe nun jedoch den endgültigen Beweis geliefert: Daten können gezielt eingesetzt werden, um KI-Systeme zu trainieren und damit operative Vorteile auf dem Schlachtfeld zu erlangen. Autonome Waffensysteme, lange ein ethisches Tabu, sind nun Realität – und kein Staat, so Taddeo, habe bisher ernsthaft versucht, ihre Entwicklung zu regulieren.  

Realität akzeptieren und Gefahr minimieren

So fordert Taddeo, dass die Debatte wegkommen müsse von idealistischen Appellen eines Verbots von LAWS oder ATR-Drohnen und hin zu realistischen Strategien zur Risikominimierung ihrer Auswirkungen. Es gehe nicht mehr darum, ob man KI-Kampfsysteme einführen will oder nicht, sondern darum, ihre Realität zu akzeptieren und ihre Gefahren zu minimieren. «Was passiert, wenn ein Waffensystem halluziniert?», fragt Taddeo. «Bei ChatGPT geschieht dies alle paar Prompts einmal – das können wir uns bei Kriegsmaschinen nicht leisten.»  

Auch Gaza zeigt laut Taddeo exemplarisch, wie Jahre der systematischen Überwachung der Einwohner Palästinas mit Satelliten und Kameras heute präzise, KI-gesteuerte militärische Anschläge durch Drohnen ermöglichen – und dennoch zivile Opfer nicht verhindern. «Die systematischen Anschläge in Gaza sind die ersten KI-getriebenen Massentötungen der Geschichte», so Taddeo. Weiter sagt sie: «Wir sollten Gaza weiterdenken: Heute werden Unmengen an persönlichen Daten in fast allen Ländern der Welt für kommerzielle Zwecke gesammelt, doch all diese können dank KI nun auch für militärische Angriffe genutzt werden. Die Kriegsführung wird digitalisiert – und mit ihr auch das Töten. Dies kann in Theorie einen jeden von uns treffen.»

Eine andere Perspektive bietet Ben Tallis, Direktor von Hellsing.ai, einem marktführenden Unternehmen für militärische KI-Software. «Künstliche Intelligenz ermöglicht es demokratischen Staaten, handlungsfähig zu bleiben», so Tallis. «In heutigen Gesellschaften ist die Akzeptanz für menschliche Verluste gering – die Bevölkerung geht zu Recht auf die Strasse, wenn Soldaten in grosser Zahl sterben. KI-basierte Systeme schaffen hier einen strategischen Kompromiss: Sie erlauben effektives militärisches Handeln bei gleichzeitig minimalem Risiko für das menschliche Leben. Der Mensch soll nur noch dort eingesetzt werden, wo es nicht vermieden werden kann.»

Die ethische Last bleibt menschlich

Eine Surrealität des Kriegs im 21. Jahrhundert: Mit 3D-gedruckten Aufsätzen, reflektierenden Folien und gezielten Tarnmustern versuchen Soldaten, für Kampfdrohnen unsichtbar zu werden. Die neue Realität des Gefechts ist algorithmisch: Wer von der KI nicht erkannt wird, überlebt. Die Drone Wars sind in vollem Gange. 

Humanoide Kampfroboter wie in Terminator hingegen bleiben grösstenteils Fiktion. Die Geometrie des menschlichen Körpers ist für moderne Kriegsführung weder effizient noch technisch optimal geformt – die Zukunft gehört kompakteren Systemen wie Drohnen, selbstfahrenden Hightech-Panzern, autonomen Sprengsätzen. Strategische Entscheidungen werden automatisiert, das Tempo erhöht – und mit ihm das Risiko von Fehlern. Bei aller technologischer Faszination darf nicht vergessen werden: Diese Systeme töten reale Menschen und Tiere. Ihre Einsätze führen zu realem Leid. Die Versuchung ist gross, die Verantwortung fürs Töten an Maschinen zu delegieren – doch die ethische Last bleibt menschlich. 

Denn ist es nicht gerade der Mensch, der bislang die schlimmsten Gräuel des Krieges selbst angerichtet hatte, auch schon ganz ohne KI und Maschinen? Man denke an die japanischen Verbrechen in Nanjing, den Völkermord Ruandas oder die amerikanischen Kriegsverbrechen in My Lai, Vietnam. Wie es der Philosoph Ronald Arkin treffend sagte: «Vielleicht hält KI das humanitäre Völkerrecht am Ende verlässlicher ein, als es der Mensch tut. Maschinen können so programmiert werden, dass sie keine Kriegsverbrechen begehen – im Gegensatz zu Menschen.» Werden Maschinen in Zukunft schützend und heroisch eingreifen, sobald sie widerrechtliches Verhalten bei einem ihrer Mitsoldaten feststellen?

Wird KI den Krieg entmenschlichen – oder ihn, paradoxerweise, gar ein Stück humaner machen?