Anthropic verklagt die Bundesregierung, um die Auflistung als Lieferkettenrisiko anzufechten und die Nutzung von Claude für 6 Monate zu stoppen. Streit um militärischen Einsatz und Sicherheitsregulierung von KI verschärft sich.
Das KI-Unternehmen Anthropic hat kürzlich vor einem US-Bundesgericht Klage eingereicht und die Trump-Regierung beschuldigt, es als „Lieferkettenrisiko“ eingestuft zu haben, und fordert, dass alle Bundesbehörden die Nutzung seines KI-Systems einstellen. Das Unternehmen sieht darin eine racheartige Unterdrückung. Die Klage wurde beim Bundesbezirksgericht Nordkalifornien eingereicht.
In der Klageschrift weist Anthropic darauf hin, dass die Maßnahmen der Regierung ohne rechtliche Grundlage seien und erhebliche Auswirkungen auf den Geschäftsbetrieb und die Partnerschaften des Unternehmens hätten. Die Klageschrift benennt mehrere Regierungsstellen und Beamte als Beklagte, darunter das Verteidigungsministerium, Verteidigungsminister Pete Hegseth, Finanzminister Scott Bessent, Außenminister Marco Rubio sowie Handelsminister Howard Lutnick.
Bildquelle: Anthropic Anthropic verklagt die US-Bundesregierung, weil sie es als „Lieferkettenrisiko“ eingestuft hat und die Nutzung seines KI-Systems durch Bundesbehörden stoppen will.
Das Label „Lieferkettenrisiko“ wird meist bei Technologieunternehmen aus feindlichen Ländern verwendet, z.B. bei Anbietern, die Spionagesoftware oder Malware enthalten könnten. Anthropic betont, dass die Einstufung eines US-amerikanischen KI-Unternehmens als solches Risiko den Ruf und die Geschäftsbeziehungen des Unternehmens deutlich schädigt. Anthropic erklärt, dass das Unternehmen rechtliche Schritte unternimmt, um die Rechtmäßigkeit der Regierungshandlungen zu klären und gleichzeitig die Interessen von Unternehmen, Kunden und Partnern zu wahren.
Der Kern des Konflikts liegt in Meinungsverschiedenheiten zwischen Anthropic und dem US-Verteidigungsministerium bezüglich der Nutzung von KI-Technologien. Zuvor hatte Anthropic mit dem Pentagon über einen Vertrag im Wert von etwa 200 Millionen US-Dollar verhandelt. Während der Verhandlungen forderte das Verteidigungsministerium, dass das KI-System in allen legalen Anwendungen, einschließlich militärischer Szenarien, eingesetzt werden darf. Anthropic bestand auf zwei Sicherheitsbeschränkungen:
Das Unternehmen sieht diese Beschränkungen als wichtige Prinzipien der KI-Sicherheitsregulierung. Die beiden Seiten konnten sich jedoch nie auf eine Einigung einigen. Im Februar 2026 listete die US-Regierung Anthropic als Lieferkettenrisiko und forderte, dass Bundesbehörden die Nutzung von Claude innerhalb von 6 Monaten einstellen.
In der Klageschrift weist Anthropic darauf hin, dass die Regierung ihre administrative Macht nutzt, um Druck auf das Unternehmen auszuüben und es zu zwingen, seine Sicherheitsrichtlinien anzupassen. Die Anwälte des Unternehmens erklären, dass die US-Verfassung keine Maßnahmen erlaubt, die Unternehmen wegen ihrer öffentlichen Haltung zu bestrafen.
Weiterführende Literatur
Sicherheit vs. Ethik: Anthropic weigert sich, Claudes Sicherheitsbarrieren zu entfernen, Konflikt mit dem Verteidigungsministerium
Der Konflikt zwischen Anthropic und der Regierung hat in der Tech-Industrie für Diskussionen gesorgt. Kurz nach Einreichung der Klage reichten 37 KI-Forscher von OpenAI, Google und anderen Unternehmen Stellungnahmen beim Gericht ein, um Anthropic zu unterstützen. Sie befürchten, dass staatliche Maßnahmen gegen Unternehmen wegen Differenzen in der KI-Sicherheitspolitik die Wettbewerbsfähigkeit der USA im Bereich KI schwächen könnten.
Die Stellungnahmen betonen, dass eine staatliche Unterdrückung von KI-Unternehmen aus Sicherheitsgründen langfristige negative Auswirkungen auf die Tech-Industrie und die Forschungsumgebung haben könnte. Einige Wissenschaftler weisen außerdem darauf hin, dass „Lieferkettenrisiko“ meist bei Bedenken hinsichtlich ausländischer Software-Sicherheit verwendet wird. Anthropic ist in diesem Zusammenhang nicht vergleichbar.
Ben Goertzel, CEO von SingularityNET, erklärt, dass die Ablehnung, KI für groß angelegte Überwachung oder autonome Waffensysteme zu verwenden, keine Sicherheitsbedrohung darstellt. Falls das Militär solche Anwendungen benötigt, könne es auf andere KI-Systeme zurückgreifen.
Bildquelle: DigFin CEO von SingularityNET, Ben Goertzel
Angesichts der Klage reagierte das Weiße Haus schnell und betonte, dass die Regierung es nicht zulassen werde, dass Unternehmen die Nutzung kritischer Technologien für das US-Militär einschränken. Ein Regierungssprecher erklärte, die USA müssten sicherstellen, dass das Militär die notwendigen Technologien im legalen Rahmen einsetzen könne, um die nationale Sicherheit zu gewährleisten.
Der Streit berührt auch breitere Fragen der Technologiepolitik. Die Trump-Regierung hatte zuvor die Ausfuhrbeschränkungen für KI-Chips nach China gelockert und gleichzeitig die politischen Positionen einiger Tech-Unternehmen kritisiert, was die Spannungen zwischen Silicon Valley und Washington verschärft.
Anthropic erklärt, dass nach der Blacklist-Einstufung einige Unternehmen, die mit dem Verteidigungsministerium zusammenarbeiten, nachweisen müssen, dass ihre Systeme kein Claude verwenden. Diese Forderung könnte die Geschäftsbeziehungen des Unternehmens erheblich beeinflussen.
Einige große Tech-Unternehmen zeigen weiterhin Unterstützung für Anthropic. Google kündigte an, die KI-Technologie von Anthropic weiterhin an Cloud-Kunden zu verkaufen, jedoch ohne militärische Nutzung. Microsoft und Amazon erklärten, die Zusammenarbeit mit dem Unternehmen in der Wirtschaft weiterhin fortzusetzen.
Anthropic hat beim Gericht beantragt, die Regierungshandlungen für rechtswidrig zu erklären und die Durchsetzung des „Lieferkettenrisiko“-Labels zu stoppen. Nach Beginn des Gerichtsverfahrens wächst die Diskussion um KI-Sicherheitsregulierung, nationale Sicherheit und unternehmerische Autonomie.
Weiterführende Literatur
OpenAI kooperiert mit US-Militär – Widerstand wächst! Claude App-Download überholt, Ethik und politische Machtspiele im Blick
Wall Street Journal: Nach Trumps Verbot von Anthropic bleibt die US- und israelische Unterstützung für den Iran bei der Nutzung von Claude bestehen