Nicht alles, was ins All geschossen wird, hat zivile Zwecke.
IMAGO/Liu Fang

Im Orbit um die Erde wird es langsam eng. Ganze Satellitennetzwerke überziehen den Planeten und liefern den Menschen auf der Erde Hochgeschwindigkeitsinternet, Mobilfunk und andere Annehmlichkeiten oder dienen der Wetter- und Atmosphärenforschung. 45.000 Satelliten sollen in den kommenden Jahren allein im nahen Orbit um die Erde kreisen.

Satellitenwaffen überall

Aber dieser Wettlauf im All hat neben all den Vorzügen auch gewaltige Nachteile. Von der Verschmutzung im Orbit einmal abgesehen versuchen viele Staaten, den Orbit auch militärisch zu nutzen. So startete Russland vor kurzem einen sogenannten Killersatelliten. Dieser dient dazu, andere Satelliten entweder durch Rammen, eine Sprengstoffladung oder durch ausgefeiltere Methoden wie einen Greifarm aus dem Orbit zu kicken oder ganz zu zerstören.

Im Orbit ist es mittlerweile sehr leicht geworden, seine eigenen Satellitenwaffen als zivile künstliche Himmelskörper zu tarnen – sie gehen einfach in der Masse unter. Dem Problem ist man sich auch bei der Forschungsabteilung des US-Verteidigungsministeriums bewusst, und deshalb wird aktuell an einer Methode gearbeitet, wie man getarnte Killersatelliten möglichst sicher aufspüren kann.

Jetzt will die DARPA gemeinsam mit dem US-Start-up Slingshot ein System entwickelt haben, wie man die guten von den bösen Satelliten unterscheiden kann, und vor allem, wie man sie aus der Masse heraus erkennt. Dafür bedient man sich nicht ganz zufällig der Bildsprache des Science-Fiction-Klassikers Minority Report. Darin können KI-Systeme Verbrechen vorhersagen, bevor sie passieren. Diese "Precogs" genannten Systeme können etwa Gefühlsausbrüche vorhersagen, die möglicherweise zu Gewalttaten führen. Ganz ähnlich funktioniert auch Agatha. Das Satellitenerkennungsprogramm von Slingshot ist nach einem Precog aus dem Film benannt.

Viele subtile Hinweise der Schurkensatelliten

Die Slingshot-Forscher haben Agatha mit den synthetischen Daten aus 60 Jahren Raumfahrtgeschichte trainiert. Das KI-System soll winzige Unterschiede im Verhalten der Satelliten erkennen und so herausfinden, ob es sich um einen der "guten" Satelliten oder nicht doch um eine Waffe oder einen Spion im Orbit handelt. Wie sich herausstellte, gibt es eine Vielzahl subtiler Hinweise, die dann ein größeres Bild über den wahren Zweck von Satelliten liefern, wie Dylan Kesler, der Leiter der Abteilung Data Science bei Slingshot, gegenüber Defense One erklärt.

So komme es bei Schurkensatelliten gehäuft zu Abweichungen in der Flugbahn. Kesler nennt als Beispiel den russischen Satelliten "Luch", der 2015 von seiner vorgesehenen Bahn abwich und sich neben ein Paar Intelsat-Kommunikationssatelliten schob, wohl um sie zu hacken. Das sei aber noch eines der auffälligeren Manöver gewesen. Aktuellen Killersatelliten sei es ohne weiteres möglich, unentdeckt unter zivilen Gegenstücken unterzutauchen.

Da die Zahl der Satelliten im nahen Erdorbit zunimmt, wird es immer schwieriger, potenzielle Ausreißer zu erkennen. Und es werden immer mehr: China hat in der Vorwoche einen neuen Plan zum Start von 10.000 neuen Satelliten angekündigt. Das ist zusätzlich zu jenen 26.000, die China im Jänner angekündigt hat.

Die Beobachter müssen dabei auch auf immer kleinere Details achten: Abweichende Nutzlasten oder eine plötzliche Änderung im Kommunikationsverhalten könnten einen Satelliten in größeren Konstellationen herausstechen lassen. Das Ziel ist es, dieses Verhalten so schnell wie möglich zu erkennen, damit die zuständigen Stellen, wie das Space Command, nachrichtendienstliche Ressourcen einsetzen können, um die Ursache für dieses Verhalten zu ermitteln.

Kaum Trainingsdaten vorhanden

Jedes KI-Modell braucht aber Trainingsdaten, über vermeintliche oder tatsächliche Weltraumwaffen gibt es aber so gut wie keine Unterlagen. Wie kann Slingshot Aerospace testen, ob das KI-System sie richtig erkennt? Schließlich kann man nicht einfach hinfliegen und nachschauen. Um sicherzugehen, simulierte das Unternehmen eine Reihe von Szenarien, und Agatha konnte sämtliche Anomalien erkennen.

Anschließend wurde die KI auf echte Satelliten losgelassen. "Sie funktionierte auch in der realen Welt und identifizierte Satelliten innerhalb dieser realen Konstellationen, die Fehler aufwiesen oder ihre Mission änderten. Und wir sprachen mit den Betreibern und bestätigten, dass sich die von Agatha identifizierten Satelliten tatsächlich von den anderen unterschieden." In mindestens einigen Fällen erfuhren die Satellitenbetreiber erst durch das Unternehmen von den möglichen Fehlfunktionen, wie Kesler nicht müde wird zu betonen.

Das ganze Programm wurde von der DARPA übrigens "Predictive Reporting and Enhanced Constellation Objective Guide" getauft. Richtig, das Akronym lautet Precog, genauso wie in Minority Report. (pez, 6.6.2024)