Zum Inhalt springen
Startseite » Blog » Haltung als Geschäftsmodell – Was passiert, wenn Werte wichtiger sind als Verträge

Haltung als Geschäftsmodell – Was passiert, wenn Werte wichtiger sind als Verträge

Es gibt Momente, in denen ein Unternehmenskonflikt weit über die betroffene Branche hinausweist. Der Streit zwischen Anthropic und dem US-Verteidigungsministerium im Februar 2026 ist so ein Moment.


Was passiert ist – die Fakten

Im Juli 2025 schloss Anthropic, das Unternehmen hinter dem KI-Assistenten Claude, einen Vertrag mit dem Pentagon im Wert von bis zu 200 Millionen Dollar. Claude wurde damit das erste Frontier-Modell, das auf klassifizierten Militärnetzwerken eingesetzt wurde. Grundlage des Vertrags: Anthropics eigene Nutzungsbedingungen – inklusive zweier klarer Einschränkungen: kein Einsatz für Massenüberwachung amerikanischer Bürger, kein Einsatz für vollautonome Waffensysteme.

Anfang Januar 2026 verschickte Verteidigungsminister Pete Hegseth ein internes Memorandum zur KI-Strategie des Pentagons. Kernaussage: Alle KI-Verträge des Verteidigungsministeriums sollen künftig auf der Standardformulierung „any lawful use“ basieren – also ohne inhaltliche Nutzungsbeschränkungen. Anthropic sollte die bestehenden Klauseln nachträglich streichen.

Anthropic verhandelte wochenlang. Dann, am 27. Februar 2026, lief eine gesetzte Frist ab. CEO Dario Amodei erklärte in einer öffentlichen Stellungnahme, sein Unternehmen könne „in good conscience“ den Forderungen des Pentagons nicht nachkommen.

Die Reaktion der US-Regierung ließ nicht lange auf sich warten: Präsident Trump ordnete per Truth Social an, dass „EVERY Federal Agency“ sofort die Nutzung von Anthropics Technologie einstellen solle. Verteidigungsminister Hegseth bezeichnete Anthropic daraufhin als „Supply Chain Risk to National Security“ – eine Einstufung, die bislang ausländischen Staatsakteuren vorbehalten war, zuletzt 2025 einer Schweizer Cybersicherheitsfirma mit mutmaßlichen russischen Verbindungen.

Der Schaden, den Hegseth anrichtete, ging weit über den verlorenen Vertrag hinaus: Er erklärte, kein Unternehmen, das mit dem US-Militär zusammenarbeite, dürfe noch „any commercial activity“ mit Anthropic betreiben. Rechtsexperten, darunter Georgetown-Law-Scholar Peter Harrell und Trump-naher AI-Politikberater Dean Ball, bezeichneten die Auslegung als „almost surely illegal“ und „attempted corporate murder“.


Die Zahlen sprechen eine andere Sprache

Wer geglaubt hat, Anthropic würde durch die Regierungsentscheidung in die Knie gezwungen, sah sich eines Besseren belehrt.

Am 30. Januar 2026 war die Claude-App auf Platz 131 der meistgeladenen kostenlosen Apps im US-App Store. Am Mittwoch, 25. Februar: Platz 6. Am Donnerstag: Platz 4. Am Samstag, einen Tag nach der offiziellen Einstufung als Sicherheitsrisiko: Platz 1 – und damit vor ChatGPT.

Die internen Zahlen von Anthropic: Tägliche Neuanmeldungen brachen jeden bisherigen Rekord. Kostenlose Nutzer stiegen seit Januar um über 60 Prozent. Bezahlabonnements haben sich im laufenden Jahr mehr als verdoppelt. Am Montag nach der Eskalation verzeichnete Claude den größten einzelnen Anmeldetag seiner Geschichte – die Server gingen kurzzeitig in die Knie.

Zur Einordnung: Anthropic wurde im Februar 2026 mit rund 380 Milliarden Dollar bewertet. Der gecancelte Pentagon-Vertrag: bis zu 200 Millionen Dollar – also rund 0,05 Prozent des Unternehmenswertes. Der symbolische Preis war deutlich höher. Der tatsächliche Markteffekt offenbar auch.


Was das mit Werten zu tun hat – und warum das keine Zufälligkeit ist

Man könnte versuchen, das Ganze als cleveres Marketing abzuhaken. Das wäre zu kurz gedacht.

Anthropic hat seine Nutzungsbedingungen zu Massenüberwachung und autonomen Waffen nicht im Februar 2026 erfunden. Sie existieren seit Juni 2024 – öffentlich, unverändert, Teil des Acceptable Use Policy. Sowohl Trump als auch Hegseth wussten das beim Vertragsabschluss im Juli 2025. Es war kein nachträglicher Kurswechsel. Es war konsequente Haltung.

Genau das ist der Unterschied zwischen Werten als PR-Botschaft und Werten als echtem Steuerungsinstrument. Wenn ein Wert nur dann gilt, wenn er nichts kostet, ist es kein Wert. Es ist ein Slogan.

Was Nutzer in diesem Fall mit ihren Downloads und Abonnements honorierten, war nicht ein neues Feature. Es war die Beobachtung: Dieses Unternehmen meint, was es sagt.


Der OpenAI-Spiegel

Interessant ist auch, was auf der anderen Seite des Spiegels passierte. Noch in der Nacht des 27. Februar, wenige Stunden nach Anthropics Rauswurf, kündigte OpenAI eine eigene Vereinbarung mit dem Pentagon an. CEO Sam Altman erklärte, der Deal enthalte dieselben Kernprinzipien, für die Anthropic zuvor gekämpft hatte – keine Massenüberwachung, keine vollautonomen Waffen.

Auf den Bürgersteigen vor Anthropics Büros in San Francisco hinterließen Nutzer Kreideaufschriften: „Thank you.“ Vor dem OpenAI-Büro standen andere Worte: „Do the right thing.“


Was das für Unternehmen bedeutet, die heute KI einführen

Die Anthropic-Geschichte ist kein Ausnahmefall. Sie ist ein Vorgeschmack auf Fragen, die sich jedes Unternehmen stellen sollte, das KI in seine Prozesse integriert.

Welche Werte hat mein KI-Anbieter? Nicht laut Marketingmaterial – sondern unter Druck. Wer bleibt standhaft, wenn es etwas kostet?

Was passiert, wenn sich die Spielregeln ändern? Anbieter, Nutzungsbedingungen, Preismodelle, regulatorische Anforderungen – alles ist veränderlich. Die Frage ist nicht ob, sondern wann. Bin ich wechselfähig?

Wer haftet, wenn mein KI-System für Zwecke eingesetzt wird, die meinen eigenen Werten widersprechen? Nicht die Plattform. Ich.

Welches Wertegefüge steckt in meiner eigenen KI-Strategie? Wurde das bewusst definiert – oder blieb es dem Zufall überlassen?

Diese Fragen sind keine Philosophieübung. Sie sind operative Risikofragen. Die Anthropic-Geschichte hat das in Echtzeit vorgeführt.


Für meine Arbeit mit Unternehmen

KI-Einführung ist kein rein technisches Projekt. Sie ist eine Entscheidung über Abhängigkeiten, Werte und Verantwortung – die langfristige Konsequenzen hat.

Unternehmen, die KI heute integrieren, ohne diese Fragen zu beantworten, bauen auf instabilem Grund. Nicht wegen schlechter Technologie. Sondern weil ein stabiles Wertegefüge – intern wie extern – keine nachgelagerte Aufgabe ist. Es ist die Voraussetzung dafür, dass Transformation trägt.

Genau das ist der Kern meiner Arbeit bei NxtLvlOrg: KI so einzuführen, dass Unternehmen jederzeit wechselfähig bleiben, dass KI als verlängerte Werkbank verstanden wird – und dass eigene Werte dabei nicht auf der Strecke bleiben. Nicht als ethisches Beiwerk. Als strategische Resilienz.

Denn was der Anthropic-Fall zeigt: Menschen können sehr gut erkennen, wann ein Unternehmen meint, was es sagt. Und sie entscheiden entsprechend.