big data

KI Claude im militärischen Einsatz

Über die kriegerischen Einsatzmöglichkeiten künstlicher Intelligenz

| Wolfgang Haug

Claude
Foto: Software: Anthropic PBCArtwork and Screenshot:VulcanSphere, CC0, via Wikimedia Commons

Am 14. Februar 2026 ging weltweit durch die Medien, dass die Entführung Nicolás Maduros aus Venezuela mit Hilfe des KI-Chatbots Claude der US-Firma Anthropic gelang.

Nun ist diese generative KI Claude in der Lage, Texte zu verstehen und zu generieren. Sie kann Dokumente analysieren und wie andere Chatbots auf Fragen antworten und auch selbst programmieren. Technisch gefüttert wurde sie mit einer unglaublich großen
Anzahl an Texten, um zu trainieren, Muster zu erkennen und Fragen zu beantworten. Die Firma Anthropic hat sich selbst ethische Richtlinien gegeben, die schädliche oder gefährliche Anwendungen verhindern sollen. Die Nutzungsrichtlinien verbieten
den Einsatz der KI für Gewalt, Waffentechnik oder Überwachung. Der Zweck ihrer KI soll offiziell zum Problemlösen und „Denken“ beitragen. Wie erklärt sich dann die Anwendung durch die US-Militärführung bei der Maduro-Entführung aus Venezuela?
Die US-Militärführung konnte sich der KI Claude bedienen, weil es von An thropic eine technische Partnerschaft mit Peter Thiels Firma Palantir Technologies gibt. Da das US-Militär Palantir nutzt, wurde die KI Claude „mitgenutzt“. Im Nachhinein scheint es nun Streit zwischen Anthropic und dem Pentagon zu geben, genauere Informationen wurden aber von beiden Seiten anfangs unter Verschluss gehalten. Später stellte der US-Kriegsminister Peter Hegseth der Firma Anthropic eine Frist, die Nutzungseinschränkungen für militärische Einsätze abzuschaffen. Er werde, so Hegseth im O-Ton: „keinem Unternehmen erlauben, die Bedingungen für operative Entscheidungen des Pentagons zu diktieren oder gegen einzelne Anwendungsfälle Einspruch zu erheben“.
Als Anthropic nicht darauf einging, wurde der Firma „Verrat“ vorgeworfen und sie wurde als „supply chain risk“ (Risiko für die militärische Lieferkette) auf den Index gesetzt.

Der Zweck ihrer KI soll offiziell zum Problemlösen und „Denken“ beitragen. Wie erklärt sich dann die Anwendung durch die US-Militärführung bei der Maduro-Entführung aus Venezuela?

Unklar blieb, wie ausgiebig die KI Claude für die Entführung Maduros benutzt wurde. Erklären lässt es sich jedoch mit der Frage: Was kann die KI Claude leisten, was Palantir Technologies nicht kann?
Wenn die Anthropic Claude KI Sprache verstehen und generieren kann, Palantir Technologies Datenanalyse betreibt und eine Plattform schafft für komplexe Datenerfassung, verspricht eine Kombination beider Systeme eine deutlich genauere Nutzbarkeit, das betrifft alle Datenbereiche und, wenn sie zur Verfügung stehen, natürlich auch die militärischen.
Palantir kann diese Unmenge an militärischen Daten analysieren, Tabellen erstellen, Logs auswerten, also z. B. Ursachen für Abstürze oder Fehlermeldungen ermitteln, Login-Zugriffe oder Zugriffsversuche erfassen, Nutzungsmuster erstellen, die Systemlast auswerten, Benutzeraktionen in diversen Softwares analysieren, IP-Adressen feststellen etc.
Die KI Claude kann unstrukturierte Texte wie E-Mails oder Berichte analysieren, Inhalte zusammenfassen, Bedeutungen herausarbeiten und auch Absichten interpretieren. Sie kann Zahlen mit Texten verknüpfen, eine Geschichte der Daten aufnehmen und Absichten mit den Daten oder Unklarheiten und Widersprüche herausfiltern. Wenn also Palantir eine Unmenge an Daten protokolliert in die KI Claude einspeist, kann die KI Claude die Inhalte zusammenfassen und Muster herausarbeiten.
Palantir kann Dashboards liefern, also komplexe Daten visuell dargestellt in Graphiken, Tabellen oder Diagrammen, die KI Claude kann die Szenarien vergleichen, Ergebnisse in verständlicher Sprache ausdrücken und Entscheidungsoptionen formulieren, bis hin zu Optionen, also „was wäre wenn“-Antworten. Das Pentagon konnte sich deshalb direkt mit den Szenarien beschäftigen, die es zu entscheiden galt.

Palantir kann Datenbeziehungen vorlegen. Die KI Claude kann Texte, Dokumente und Zahlen gemeinsam auswerten, die Widersprüche in verschiedenen Aussagen erkennen und Hypothesen oder Handlungsoptionen formulieren. Das beinhaltet auch die Bereitstellung von alternativen Strategien. Dazu kann sie das Für und Wider der Argumente strukturieren. Sie kann Annahmen prüfen und bei Widersprüchen von Palantir weitere Datensätze zur Klärung anfordern. Palantir kann die Optionen der KI wiederum für das Pentagon berechnen.
Palantir hat die Einsatzgenehmigung in Behörden und militärischen Systemen, die Sicherheitskontrolle, den Zugriff auf operative Datenbanken und die Echtzeit-Datenintegration.
Ein Zusammenschalten dieser beiden Systeme brachte dem Pentagon deshalb nicht nur eine Vielzahl von Datensätzen zur Analyse (Palantir), sondern eine konkrete Vorlage von den wahrscheinlichsten Szenarien mit jeweils einer angehängten Risikoanalyse (Palantir und KI Claude).
Aus den Stärken von Palantir in der Datenstrukturierung, den Sicherheitsaspekten und einer Echtzeitverarbeitung, d.h. einer Analyse von Daten sofort nach deren Erfassung, den Stärken der KI Claude in der Bedeutung von Sprache und in der umfänglichen Argumentation entsteht Data Intelligence und Cognitive Layer. Also das Verstehen der Bedeutung der Daten, einschließlich der Interpretation von Zusammenhängen und der Möglichkeit, daraus Schlussfolgerungen zu ziehen. Damit erhielt das Pentagon nicht nur Daten zur Auswertung, sondern eine Analyse der Bedeutung der Daten. Dazu wurden in verständlicher Sprache Aussagen beigesteuert, die für eine Entscheidung über den Einsatz der Militärs relevant waren.
Der Begriff des Agentic Layers taucht in diesem Zusammenhang auf, damit ist gemeint, dass noch ein dritter KI-Part eine Rolle spielt. Wenn Palantir für die Datenplattform, KI Claude für die Sprachanalyse zuständig ist, dann gibt es noch (z. B. im Pentagon) eine Software, die plant und vorhandene Tools nutzt. Die Entscheidung bleibt deshalb zunächst noch bei der Behörde oder einer Organisation, sprich ganz oder teilweise bei menschlichen Akteuren. In der Entwicklung des Decision Layers, also weitergehender KI, die eine verbindliche Auswahl für die Handlungen aus der Analyse von Cognitive und Agentic Layern trifft, liegt die zukünftige Möglichkeit und Gefahr, dass eine Entscheidung auch ohne menschliche Mitverantwortung getroffen werden kann.

Welche Firmen arbeiten an der Entwicklung der Decision Layer?
Sehr viele, je nach ihren „Arbeitsfeldern“.
Die großen Konzerne wie Microsoft, OpenAI, Google DeepMind, Meta und auch Anthropic arbeiten für ihre Firmenziele daran.
Im Sicherheits- und militärischen Bereich arbeiten das US-Kriegsministerium, DARPA, die Forschungsbehörde des US-Kriegsministeriums für neuartige Hochtechnologien, Palantir Technologies und das Rüstungsunternehmen Anduril Industries, das spezielle unbemannte autonome Waffensysteme und Überwachungslösungen entwickelt, wie z. B. Sensor- und KI gesteuerte Überwachungstürme zur Grenzüberwachung.

Dies ist ein Beitrag aus der aktuellen Ausgabe der Graswurzelrevolution. Schnupperabos zum Kennenlernen gibt es hier.

Wir freuen uns auch über Spenden auf unser Spendenkonto.