Wachtberger Zukunftsforum ganz im Zeichen von KI
Gerd Portugall
Im November war es wieder so weit: Da fand im nordrhein-westfälischen Wachtberg das diesjährige Zukunfts-und Technologieforum von FKIE, dem Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie, in Zusammenarbeit mit AFCEA Bonn e.V., dem Anwenderforum für Fernmeldetechnik, Computer, Elektronik und Automatisierung, statt. Das Forum 2024 stand unter dem Motto „Anwendungen der Generativen KI im Bereich Verteidigung und Sicherheit“.
Als das US-amerikanische Softwareunternehmen Open AI, Inc. mit Firmensitz im kalifornischen San Francisco Ende 2022 das textbasierte Dialogsystem ChatGPT (Generative Pre-trained Transformer) auf der Grundlage eines Large Language Model (LLM) der breiten Öffentlichkeit vorstellte, hat dies die digitale Welt in kürzester Zeit dramatisch verändert. Die dahinterstehende Technologie, die sogenannte Generative Künstliche Intelligenz (KI), eröffnet auch dem Sicherheits- und Verteidigungssektor auf der einen Seite große Chancen, schafft auf der anderen Seite aber ebenso hohe Bedrohungsrisiken.
Ob die Simulation menschlichen Verhaltens in Strategiespielen (Wargaming) oder die Unterstützung bei der Operationsplanung – die Einsatzmöglichkeiten von Generativer KI sind vielfältig. Doch auch gegnerische Kräfte können diese disruptive Technologie einsetzen, um zum Beispiel Desinformationskampagnen in bislang ungekannter Qualität und Umfang durchzuführen, wie Dr. Michael Gerz, Abteilungsleiter Informationstechnik für Führungssysteme beim FKIE sowie zuständig im Vorstand von AFCEA Bonn für Wissenschaft und Forschung, bei der Begrüßung und thematischen Einführung feststellte.
Generative KI in der Bundeswehr
Oberst im Generalstabsdienst Frank Endler, Abteilung Cyber/Informationstechnik, Referat CIT I 4 Digitalisierung im Geschäftsbereich BMVg (Bundesministerium der Verteidigung), sprach eingangs zum Thema „Generative KI in der Bundeswehr“ auf der strategischen Ebene. Dabei verwies dieser auf die Umsetzungsstrategie „Digitale Bundeswehr“ aus dem Jahre 2019. Damit, so Oberst Endler, „ist die Bundeswehr gut aufgestellt.“ 2021 folgte die Datenstrategie des BMVg, wonach erstens Open Source ausdrücklich genutzt würde, zweitens eine private Cloud der Bundeswehr ein Ziel sei und drittens eine Experimentalplattform für 2025 aufgebaut werden solle.
Mittlerweile sei ChatGPT beziehungsweise Generative Künstliche Intelligenz dazugekommen. Deren Anwendung müsse einerseits ethisch und rechtlich zulässig, andererseits aber auch sicher und zuverlässig sein. In diesem Zusammenhang hob der Stabsoffizier die weltweit erste umfassende Verordnung über Künstliche Intelligenz hervor: das KI-Gesetz der Europäischen Union (EU) vom Juni dieses Jahres. Dieses diene dazu, entsprechende Risiken zu minimieren. Daraus, so Oberst Endler, folge: „Wir wollen keine voll autonomen Systeme – sogenannte ‚Killerroboter’.”
Als militärische Anwendungsmöglichkeiten von Künstlicher Intelligenz wurden dabei eine ganze Reihe beispielhaft genannt: Anfragen zur aktuellen Gesamtlage sowie zu Einsatzgrundsätzen des Gegners, Zustandsabfragen von Munitionsbeständen, Reichweiten oder Systembelastung, die eigene Bordsensorik meldet aufgeklärte Objekte per Sprachausgabe usw. KI kann auch zu einer verbesserten Interaktion zwischen unbemannten Systemen untereinander führen, weil das semantische Verständnis sowohl in der Maschine-Maschine- als auch in der Mensch-Maschine-Kommunikation verbessert wird. Innerhalb des Führungsprozesses ist es möglich, alternative Handlungsoptionen an das System zu kommunizieren und von diesem nach entsprechender Berechnung mit einer Erfolgswahrscheinlichkeit – auch grafisch – zurückzumelden.
Im Rahmen des Programms „Digitalisierung landbasierter Operationen“ (D-LBO) biete KI zahlreiche Anwendungsgebiete: von der Sanität über die Logistik bis zur Waffenwirkung auf dem Gefechtsfeld. Allerdings: „Ohne Software Defined Defence wird es nicht gehen“, so Oberst Endler. Als strategischer Rahmen hierfür müssten die entsprechenden Systeme allerdings zwischen Bundeswehr und Industrie „fortlaufend aktualisiert werden“.
Über die Verbesserung der militärischen Entscheidungsfindung mittels Nutzung von Generativer KI für zuverlässige taktische Chat-Assistenten referierten Oberstleutnant Thomas Doll vom Kommando Streitkräftebasis (SKB) und Daniel Kallfass, Senior Expert bei der Airbus Defence and Space (DS) GmbH. Dabei stellten beide die Studie „KI für Taktik-Chat in Simulationssystemen“ (KITCH) vor. Airbus DS und Deepset, ein Anbieter von Unternehmenssoftware mit Sitz in Berlin, hatten damit im vergangenen Jahr begonnen.
Im April dieses Jahres, so Oberstleutnant Doll, sei die Bundeswehr in die Studie eingestiegen. Ziel sei die Verbesserung der militärischen Entscheidungsfindung mittels Nutzung von Generativer Künstlicher Intelligenz auf der taktischen Ebene. Als ein Beispiel, wie diese Anwendung aussehen könnte, wurde den Forumsteilnehmern anschaulich vorgeführt, wie KITCH auf die Eingabe „Wahrnehmung von senfartigem Geruch auf dem Gefechtsfeld“ mittels kostenlosem SmartTools ChatGPT-Assistant reagiert und angemessene Empfehlungen – einschließlich der Angabe von sechs Referenzen – ausspricht.
All dies, so Oberst Endler, müsse bedacht werden vor dem Hintergrund der Äußerung des Generalinspekteurs der Bundeswehr, General Carsten Breuer, gegenüber der „Welt am Sonntag“ im Februar dieses Jahres, wonach die deutschen wie die NATO-Streitkräfte aufgrund des zunehmenden militärischen Bedrohungspotenzials Russlands innerhalb von fünf Jahren „kriegstüchtig“ sein müssten. Dies gelte auch und gerade für die IT und den Cyber-Raum.
KI bei Drohnenschwärmen
„Missionssteuerung von Schwärmen mit Generativer KI“ hatte Christoph Petroll Ph.D., Technischer Oberregierungsrat am Wehrwissenschaftliches Institut für Werk- und Betriebsstoffe (WIWeB) im oberbayerischen Erding, bei seinen Ausführungen zum Thema. Beim seit Sommer 2022 im WIWeB bestehenden Innovationslabor „System Soldat“ (InnoLab SysSdt) gehe es – wie bei anderen Anwendungsgebieten auch – letztlich um die „digitale Souveränität“ Deutschlands.
Ziel des Innovationslabors sei die Aufklärung mittels softwaredefinierter Drohnen und ganzer Drohnenschwärme. Diese sollen in der Lage sein, vernetzt mittels „KI-Backbone“ GPS-frei und EloKa-resistent, das heißt, widerstandsfähig gegen störende Elektronische Kampfführung, fliegen zu können.
Lehren aus aktuellen Kriegen
Im Ukrainekrieg, so Oberstleutnant Doll, würden von beiden Kriegsparteien unbemannte Systeme unterschiedlicher Art im großen Stil eingesetzt. Das Spektrum reiche dabei von bewaffneten FPV-Drohnen (First-Person-View – ferngesteuert aus der Pilotenperspektive) zur Bekämpfung beweglicher Ziele im Nahbereich bis hin zu Langstreckendrohnen zur Bekämpfung von Infrastrukturelementen in der Tiefe des Gefechtsfeldes.
Aufgrund KI-generierter Aufklärungserfolge, so Oberst Endler, finde in der Ukraine keine weitreichende Gefechtsführung mehr statt. Der Kräfteaufmarsch auf beiden Seiten werde im gläsernen Gefechtsfeld mittlerweile sofort zerschlagen. Trotz aller zur Anwendung kommenden Hightech werde deshalb gleichzeitig rein infanteristisch in Schützengräben gekämpft wie zu Zeiten des Ersten Weltkrieges, so der Stabsoffizier des BMVg.
Stefan Hefter, Physiker und Partner für den Bereich Defence & Space bei der Wirtschaftsprüfungsgesellschaft KPMG AG mit Sitz in Berlin, stellte bei seinem Vortrag über das Thema „Vertrauenswürdige KI in der Verteidigung“ eine „Lessons Learned“-Studie zum Ukrainekrieg vor, die KPMG für die Europäische Verteidigungsagentur durchgeführt hat. Eine Lehre, die daraus gezogen werden konnte: Man könne Seekrieg ohne bemannte Schiffe führen. Generative Künstliche Intelligenz würde durch die Ukraine beispielsweise auch eingesetzt, um anhand von Aufnahmen von gefallenen russischen Soldaten diese zu identifizieren und dann deren Angehörige entsprechend zu informieren. Dieses Vorgehen, so Hefter, sei klar dem Bereich psychologische Kriegsführung (PsyOps) zuzuordnen.
Was die Geschwindigkeit bei der technologischen Entwicklung von KI-gesteuerter Automatisierung auf dem Schlachtfeld im Ukrainekrieg betreffe, betonte Christoph Petroll, „so kommen wir da kaum noch mit.“
Eine weitere Kriegslehre laut Stefan Hefter: Die Cyber-Verteidigung der Ukraine funktioniere, da es bisher dem russischen Aggressor im Großen und Ganzen nicht gelungen sei, den ukrainischen Cyber-Raum vernichtend lahmzulegen. Lehren, so der KPMG-Manager, könnten auch aus dem seit Oktober des Vorjahres gleichzeitig stattfindenden Gazakrieg gezogen werden. Den israelischen Streitkräften sei es nämlich bei ihren Einsätzen gelungen, eine KI-gesteuerte, voll automatisierte „Kill Chain“ gegen die palästinensische Terrormiliz Hamas einzusetzen.
Fazit
Bisher, so Stefan Hefter, gebe es noch viel maschinelles Lernen, aber noch wenig Generative KI. Dabei sei die Qualität von frei zugänglichen Daten aus dem Bereich „Open Source“ (OS) in der Regel „sehr gut.“ Darauf aufbauend, würde sich „ein zyklischer OS-Ansatz“ anbieten, so der Physiker, um LLM-Halluzinationen – das heißt, überzeugend formulierte, aber objektiv falsche Resultate einer Künstlichen Intelligenz – vorzubeugen.
ChatGPT, so Oberst Endler, funktioniere „überraschend gut.“ Aber, so sein Hinweis: „Keine Künstliche Intelligenz ohne Cloud.“ Erklärtes Ziel aller Anstrengungen, so Daniel Kallfass, sei letztlich die denkbar „beste Hard- und Software“ für die Bundeswehr. Unwägbare Variablen in dieser Gleichung sind jedoch die Faktoren Kosten und Zeit. Daraus leiten sich erhebliche Herausforderungen für die Bundeswehr ab.
Gerd Portugall














