Im Februar 2025 schloss OpenAI eine Vereinbarung mit dem US-Verteidigungsministerium. Was zunächst als weiterer Meilenstein im militärischen Einsatz von Künstlicher Intelligenz wirkte, entwickelte sich schnell zu einem Lehrstück über die Verletzlichkeit technischer Standards gegenüber politischen Interessen. Die Trump-Administration hatte kurz zuvor Anthropic, einen der profiliertesten Anbieter sicherheitsorientierter KI-Systeme, als Lieferkettenrisiko eingestuft und von sensiblen Aufträgen ausgeschlossen.
Der Wechsel von Anthropic zu OpenAI
Anthropic galt lange als Vorzeigeunternehmen für KI-Sicherheit. Mit seinem Konstitutional-AI-Ansatz und der expliziten Ausrichtung auf verlässliche, kontrollierbare Systeme hatte das Unternehmen Verträge mit US-Behörden unterzeichnet, die hohe Sicherheitsanforderungen vorsahen. Die Einstufung als zu sicherheitskritisch für sensible Infrastruktur klingt paradox – ist aber im Kontext der aktuellen US-Politik folgerichtig.
Die Trump-Administration begründete den Ausschluss mit angeblichen Lieferkettenrisiken. Kritiker vermuten dahinter politische Motive. Anthropic-CEO Dario Amodei hatte sich wiederholt für strengere KI-Regulierung ausgesprochen und die Sicherheitspolitik der Regierung öffentlich kritisiert. Das Unternehmen pflegt zudem enge Beziehungen zu Google, einem Konkurrenten von OpenAI-Partner Microsoft.
OpenAI, dessen CEO Sam Altman enge Kontakte zur Trump-Administration unterhält, übernahm die frei gewordenen Verträge umgehend. Die Aufträge umfassen laut Medienberichten Anwendungen im Bereich Massenüberwachung und autonome Waffensysteme – Einsatzszenarien, die bei Anthropic intern kontrovers diskutiert worden waren.
Interne Unruhe und nachträgliche Korrekturen
Die Reaktionen bei OpenAI fielen gemischt aus. Caitlin Kalinowski, zuständig für Hardware und Robotik, verließ das Unternehmen kurz nach Bekanntwerden des Deals. In ihrem Abschiedsstatement kritisierte sie mangelnde Sicherheitsgarantien und die mangelnde Transparenz gegenüber der Belegschaft. Weitere Mitarbeiter äußerten sich anonym besorgt über die Richtung des Unternehmens.
Unter öffentlichem Druck ruderte OpenAI teilweise zurück. CEO Sam Altman kündigte an, den Vertrag um Schutzklauseln zu ergänzen, die bestimmte Einsatzszenarien ausschließen. Geheimdienste wie die CIA sollen demnach explizit vom Zugriff auf OpenAI-Technologie ausgeschlossen werden – eine Einschränkung, die Altman selbst als „schlampig" bezeichnete, weil sie nachträglich eingeführt wurde.
Die Episode zeigt ein grundlegendes Dilemma: Sicherheitsstandards, die im Vertragswerk verankert werden, lassen sich politisch umgehen oder nachträglich verwässern. Was bei Anthropic als strukturelle Unternehmensphilosophie galt, wird bei OpenAI zur verhandelbaren Größe.
Die Sicherheitsdebatte in der KI-Branche
Der Pentagon-Deal markiert einen strategischen Wendepunkt in der US-KI-Politik. Unter der Biden-Administration hatten Sicherheitsbedenken noch höhere Priorität genossen. Die Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence vom Oktober 2023 verpflichtete Unternehmen zu Sicherheitstests und Risikobewertungen vor dem Training besonders leistungsfähiger Modelle.
Die Trump-Administration hob diese Anforderungen weitgehend auf. Stattdessen setzt sie auf eine Deregulierungsagenda, die den schnellen Einsatz von KI-Technologie auch in sensiblen Bereichen ermöglichen soll. Die Entscheidung gegen Anthropic und für OpenAI passt in dieses Muster: Unternehmen, die sich kritisch zur Regierungspolitik äußern, riskieren Ausschluss von öffentlichen Aufträgen.
Für die KI-Branche ergeben sich daraus komplexe Anreizstrukturen. Sicherheitsforschung, die potenziell regulatorische Konsequenzen nach sich zieht, wird politisch riskant. Unternehmen müssen abwägen, ob sie Standards entwickeln, die später als Wettbewerbsnachteil fungieren könnten.
Internationale Spillover-Effekte
Die US-Entwicklungen wirken auf andere Länder. Die Europäische Union arbeitet an der Umsetzung des AI Act, der besonders strenge Anforderungen für Hochrisiko-Anwendungen vorsieht. Militärische KI-Systeme fallen zwar weitgehend unter nationale Sicherheitsvorbehalte, doch die US-Praxis beeinflusst die globale Diskussion.
Länder mit ambivalentem Verhältnis zu KI-Regulierung – darunter Großbritannien, Japan und Teile des globalen Südens – orientieren sich am US-Beispiel. Wenn der technologisch führende Markt Sicherheitsstandards als verhandelbar behandelt, lässt sich das als Argument gegen eigene Verschärfungen nutzen.
Gleichzeitig entstehen Gegenbewegungen. Frankreich und Deutschland treten für verbindliche internationale Standards ein. Die G7-Initiative Hiroshima AI Process und die OECD-Leitsätze gewinnen an Bedeutung als alternative Ordnungsrahmen.
Einordnung für KMU
Für kleine und mittelständische Unternehmen in Deutschland scheint die US-Politik weit entfernt. Die Konsequenzen sind aber spürbar. Unternehmen, die KI-Dienste nutzen, sollten die Sicherheitsstandards ihrer Anbieter kritisch prüfen – nicht nur die technischen, sondern auch die organisatorischen und politischen Rahmenbedingungen.
OpenAI und Anthropic bieten beide kommerzielle APIs an, die deutsche Unternehmen einsetzen. Die unterschiedliche Ausrichtung auf Sicherheit manifestiert sich in den Modellen selbst: Anthropics Claude gilt als zurückhaltender bei potenziell schädlichen Anfragen, OpenAIs GPT-4 als flexibler. Wer sensible Daten verarbeitet, muss diese Unterschiede kennen.
Die Abhängigkeit von US-Anbietern birgt zudem geopolitische Risiken. Sanktionen, Exportkontrollen oder politisch motivierte Dienstunterbrechungen können den Betrieb beeinträchtigen. Eine strategische IT-Sicherheit, die solche Szenarien antizipiert, gehört zum Pflichtprogramm.
Alternativen gewinnen an Relevanz. Europäische Anbieter wie Aleph Alpha, französische Open-Source-Modelle oder eigene Infrastrukturen reduzieren die Abhängigkeit. Die Kosten sind höher, die Kontrolle über Daten und Prozesse aber auch größer.
Fazit
Der Pentagon-Deal zwischen OpenAI und der Trump-Administration ist mehr als ein Vertragswechsel. Er zeigt, wie schnell technische Sicherheitsstandards politischen Interessen weichen können, und er stellt die Frage, wer in einer zunehmend von KI geprägten Welt die Spielreglen setzt.
Für Unternehmen bleibt die Lehre: Verlassen Sie sich nicht auf die Sicherheitsversprechen von Anbietern, sondern entwickeln Sie eigene Bewertungskriterien. In einer Branche, in der Standards zur Verhandlungsmasse werden, ist Eigenverantwortung unverzichtbar.
Bei Fragen zur Umsetung sicherer KI-Strategien unterstützt IT Service Wagner Unternehmen in der Region Rheinbrohl, Neuwied und Koblenz.