Anthropic behauptet, dass 3 chinesische Unternehmen es gestohlen haben, indem sie seine KI-Tools zum Trainieren ihrer Modelle verwendet haben: ‘How the turn tables’
Anthropic hat drei prominente chinesische KI-Firmen beschuldigt, seinen Claude-Chatbot in großem Umfang genutzt zu haben, um heimlich konkurrierende Modelle zu trainieren – eine unerwartete Entwicklung in einer jahrelangen globalen Debatte darüber, wo Betrug endet und Branchenstandardpraktiken beginnen.
Empfohlenes Video
In einem Blogbeitrag am Montag behauptete die in San Francisco ansässige Anthropic, dass die chinesischen Labore DeepSeek, Moonshot AI und MiniMax gegen das Unternehmensrecht verstoßen haben, indem sie mit Claude, ihrem marktverändernden Vibe-Coding-Tool, interagierten. „Wir haben industrielle Kampagnen von drei KI-Laboren – DeepSeek, Moonshot und MiniMax – identifiziert, die illegal versuchen, die Fähigkeiten von Claude zu extrahieren, um ihre eigenen Modelle zu verbessern“, sagte das Unternehmen. „Diese Labore führten über 16 Millionen Austausche mit Claude durch, über etwa 24.000 betrügerische Konten, was gegen unsere Nutzungsbedingungen und regionale Zugangsbeschränkungen verstößt.“
Laut Anthropic setzten die chinesischen Firmen eine Technik namens „Destillation“ ein, bei der ein Modell auf den Ausgaben eines anderen, oft leistungsfähigeren Systems, trainiert wird. Die Kampagnen sollen sich auf Bereiche konzentriert haben, die Anthropic als entscheidende Unterscheidungsmerkmale für Claude ansieht, darunter komplexes Denken, Programmierhilfe und Tool-Nutzung.
Anthropic argumentiert, dass obwohl Destillation eine „weit verbreitete und legitime Trainingsmethode“ ist, die Nutzung durch die chinesischen Firmen in dieser Weise möglicherweise für „illegale Zwecke“ erfolgte. Der Einsatz eines umfangreichen Netzwerks gefälschter Konten, um ein proprietäres Modell eines Konkurrenten zu replizieren, verstößt gegen die Nutzungsbedingungen und untergräbt US-Exportkontrollen, die darauf abzielen, Chinas Zugang zu modernster KI einzuschränken, so Anthropic. Das Unternehmen forderte „schnelles, koordiniertes Handeln von Branchenakteuren, Politikern und der globalen KI-Gemeinschaft.“
Falls es nicht ganz die Destillation war, wurde Anthropic kürzlich von Tausenden von Autoren wegen Urheberrechtsverletzungen beschuldigt, die angeblich Bücher in großen Mengen aus Schattenbibliotheken heruntergeladen haben, um ihre KI-Modelle zu trainieren, anstatt Kopien zu kaufen und sie selbst zu scannen. Im historischen Vergleich einigte sich Anthropic im September 2025 auf einen Vergleich in Höhe von 1,5 Milliarden US-Dollar, zahlte den Autoren rund 3.000 US-Dollar pro Buch für etwa 500.000 Werke.
Wie die chinesischen Firmen beschuldigt werden, es getan zu haben
Das Unternehmen behauptet, die drei Labore hätten Geofencing- und Geschäftsbeschränkungen umgangen, die die kommerzielle Verfügbarkeit von Claude in China einschränken, indem sie den Traffic durch Proxy-Dienste leitete, die den Zugang zu großen westlichen KI-Modellen weiterverkaufen. Eines dieser „Hydra-Cluster“, so Anthropic, betrieb zehntausende Konten gleichzeitig, um Anfragen über verschiedene API-Schlüssel und Cloud-Anbieter zu verteilen.
Sobald diese Konten eingerichtet waren, sollen die Labore lange, hoch-tokenisierte Gespräche programmiert haben, die darauf ausgelegt waren, detaillierte, schrittweise Antworten zu extrahieren, die als Trainingsdaten in ihre eigenen Systeme zurückfließen konnten. Laut Anthropic entstand so eine inoffizielle Pipeline, die Claude zu einem unfreiwilligen Lehrer für Modelle machte, die im zunehmend wettbewerbsintensiven chinesischen KI-Sektor entwickelt werden.
Anthropic hat noch keine konkreten Klagen gegen die drei Unternehmen angekündigt, aber es hat signalisiert, dass es bekannte Zugangspunkte abgeschaltet hat und Washington auffordert, die Exportkontrollen für fortschrittliche Chips und KI-Dienste zu verschärfen, um ähnliche Bemühungen in Zukunft zu verhindern.
„Wie die Wendung sich dreht“
Wenn Anthropic auf Sympathie gehofft hatte, war die Reaktion online und bei Branchenbeobachtern deutlich skeptisch. Kommentatoren wiesen schnell darauf hin, dass Anthropic selbst mit hochkarätigen Vorwürfen konfrontiert ist, seine eigenen Praktiken bei der Datensammlung zu übertreiben, neben dem Urheberrechtsfall mit Autoren etwa auch einen separaten Fall wegen des Scraping von Reddit-Inhalten. „Wie die Wendung sich dreht“, schrieb ein Nutzer im Reddit-Thread r/singularity, ein Wortspiel, das oft auf ein Meme anspielt, das von der Fernsehsendung The Office abgeleitet ist.
Hinter den Angriffen verbirgt sich ein größerer Kampf darüber, wer die Regeln für eine Branche festlegt, die auf der Remixung menschlicher Arbeit basiert. US-Firmen wie Anthropic und OpenAI fordern zunehmend eine strenge Durchsetzung gegen ausländische Wettbewerber, die beschuldigt werden, proprietäre Systeme zu kopieren, während sie ihre eigene umfangreiche Datensammlung unter dem Banner des fairen Nutzungsrechts verteidigen.
Viele chinesische Labore, die oft offenere Modelle veröffentlichen, versuchen, die Leistungsdifferenz zu westlichen Rivalen mit allen legalen Mitteln zu schließen. Da Washington bereits über strengere Exportbeschränkungen für KI-Chips und Cloud-Dienste nach China debattiert, werden Anthropic-Vorwürfe wahrscheinlich den Ruf nach neuen Schutzmaßnahmen verstärken – und Kritikern eine weitere Gelegenheit geben, die unbequeme Symmetrie im Kern der modernen KI zu betonen.
Für diese Geschichte nutzten Fortune Journalisten generative KI als Recherchewerkzeug. Ein Redakteur hat die Genauigkeit der Informationen vor der Veröffentlichung überprüft.
**Begleiten Sie uns beim Fortune Workplace Innovation Summit **19.–20. Mai 2026 in Atlanta. Die nächste Ära der Arbeitsplatzinnovation ist da – und das alte Spielbuch wird neu geschrieben. Bei diesem exklusiven, energiegeladenen Event versammeln sich die weltweit innovativsten Führungskräfte, um zu erkunden, wie KI, Menschlichkeit und Strategie erneut zusammenkommen, um die Zukunft der Arbeit neu zu definieren. Jetzt anmelden.
Original anzeigen
Diese Seite kann Inhalte Dritter enthalten, die ausschließlich zu Informationszwecken bereitgestellt werden (keine Zusicherungen oder Garantien), und sie sind nicht als Billigung der darin geäußerten Ansichten durch Gate oder als finanzielle bzw. fachliche Beratung zu verstehen. Weitere Informationen finden Sie im Haftungsausschluss.
Anthropic behauptet, dass 3 chinesische Unternehmen es gestohlen haben, indem sie seine KI-Tools zum Trainieren ihrer Modelle verwendet haben: ‘How the turn tables’
Anthropic hat drei prominente chinesische KI-Firmen beschuldigt, seinen Claude-Chatbot in großem Umfang genutzt zu haben, um heimlich konkurrierende Modelle zu trainieren – eine unerwartete Entwicklung in einer jahrelangen globalen Debatte darüber, wo Betrug endet und Branchenstandardpraktiken beginnen.
Empfohlenes Video
In einem Blogbeitrag am Montag behauptete die in San Francisco ansässige Anthropic, dass die chinesischen Labore DeepSeek, Moonshot AI und MiniMax gegen das Unternehmensrecht verstoßen haben, indem sie mit Claude, ihrem marktverändernden Vibe-Coding-Tool, interagierten. „Wir haben industrielle Kampagnen von drei KI-Laboren – DeepSeek, Moonshot und MiniMax – identifiziert, die illegal versuchen, die Fähigkeiten von Claude zu extrahieren, um ihre eigenen Modelle zu verbessern“, sagte das Unternehmen. „Diese Labore führten über 16 Millionen Austausche mit Claude durch, über etwa 24.000 betrügerische Konten, was gegen unsere Nutzungsbedingungen und regionale Zugangsbeschränkungen verstößt.“
Laut Anthropic setzten die chinesischen Firmen eine Technik namens „Destillation“ ein, bei der ein Modell auf den Ausgaben eines anderen, oft leistungsfähigeren Systems, trainiert wird. Die Kampagnen sollen sich auf Bereiche konzentriert haben, die Anthropic als entscheidende Unterscheidungsmerkmale für Claude ansieht, darunter komplexes Denken, Programmierhilfe und Tool-Nutzung.
Anthropic argumentiert, dass obwohl Destillation eine „weit verbreitete und legitime Trainingsmethode“ ist, die Nutzung durch die chinesischen Firmen in dieser Weise möglicherweise für „illegale Zwecke“ erfolgte. Der Einsatz eines umfangreichen Netzwerks gefälschter Konten, um ein proprietäres Modell eines Konkurrenten zu replizieren, verstößt gegen die Nutzungsbedingungen und untergräbt US-Exportkontrollen, die darauf abzielen, Chinas Zugang zu modernster KI einzuschränken, so Anthropic. Das Unternehmen forderte „schnelles, koordiniertes Handeln von Branchenakteuren, Politikern und der globalen KI-Gemeinschaft.“
Falls es nicht ganz die Destillation war, wurde Anthropic kürzlich von Tausenden von Autoren wegen Urheberrechtsverletzungen beschuldigt, die angeblich Bücher in großen Mengen aus Schattenbibliotheken heruntergeladen haben, um ihre KI-Modelle zu trainieren, anstatt Kopien zu kaufen und sie selbst zu scannen. Im historischen Vergleich einigte sich Anthropic im September 2025 auf einen Vergleich in Höhe von 1,5 Milliarden US-Dollar, zahlte den Autoren rund 3.000 US-Dollar pro Buch für etwa 500.000 Werke.
Wie die chinesischen Firmen beschuldigt werden, es getan zu haben
Das Unternehmen behauptet, die drei Labore hätten Geofencing- und Geschäftsbeschränkungen umgangen, die die kommerzielle Verfügbarkeit von Claude in China einschränken, indem sie den Traffic durch Proxy-Dienste leitete, die den Zugang zu großen westlichen KI-Modellen weiterverkaufen. Eines dieser „Hydra-Cluster“, so Anthropic, betrieb zehntausende Konten gleichzeitig, um Anfragen über verschiedene API-Schlüssel und Cloud-Anbieter zu verteilen.
Sobald diese Konten eingerichtet waren, sollen die Labore lange, hoch-tokenisierte Gespräche programmiert haben, die darauf ausgelegt waren, detaillierte, schrittweise Antworten zu extrahieren, die als Trainingsdaten in ihre eigenen Systeme zurückfließen konnten. Laut Anthropic entstand so eine inoffizielle Pipeline, die Claude zu einem unfreiwilligen Lehrer für Modelle machte, die im zunehmend wettbewerbsintensiven chinesischen KI-Sektor entwickelt werden.
Anthropic hat noch keine konkreten Klagen gegen die drei Unternehmen angekündigt, aber es hat signalisiert, dass es bekannte Zugangspunkte abgeschaltet hat und Washington auffordert, die Exportkontrollen für fortschrittliche Chips und KI-Dienste zu verschärfen, um ähnliche Bemühungen in Zukunft zu verhindern.
„Wie die Wendung sich dreht“
Wenn Anthropic auf Sympathie gehofft hatte, war die Reaktion online und bei Branchenbeobachtern deutlich skeptisch. Kommentatoren wiesen schnell darauf hin, dass Anthropic selbst mit hochkarätigen Vorwürfen konfrontiert ist, seine eigenen Praktiken bei der Datensammlung zu übertreiben, neben dem Urheberrechtsfall mit Autoren etwa auch einen separaten Fall wegen des Scraping von Reddit-Inhalten. „Wie die Wendung sich dreht“, schrieb ein Nutzer im Reddit-Thread r/singularity, ein Wortspiel, das oft auf ein Meme anspielt, das von der Fernsehsendung The Office abgeleitet ist.
Hinter den Angriffen verbirgt sich ein größerer Kampf darüber, wer die Regeln für eine Branche festlegt, die auf der Remixung menschlicher Arbeit basiert. US-Firmen wie Anthropic und OpenAI fordern zunehmend eine strenge Durchsetzung gegen ausländische Wettbewerber, die beschuldigt werden, proprietäre Systeme zu kopieren, während sie ihre eigene umfangreiche Datensammlung unter dem Banner des fairen Nutzungsrechts verteidigen.
Viele chinesische Labore, die oft offenere Modelle veröffentlichen, versuchen, die Leistungsdifferenz zu westlichen Rivalen mit allen legalen Mitteln zu schließen. Da Washington bereits über strengere Exportbeschränkungen für KI-Chips und Cloud-Dienste nach China debattiert, werden Anthropic-Vorwürfe wahrscheinlich den Ruf nach neuen Schutzmaßnahmen verstärken – und Kritikern eine weitere Gelegenheit geben, die unbequeme Symmetrie im Kern der modernen KI zu betonen.
Für diese Geschichte nutzten Fortune Journalisten generative KI als Recherchewerkzeug. Ein Redakteur hat die Genauigkeit der Informationen vor der Veröffentlichung überprüft.
**Begleiten Sie uns beim Fortune Workplace Innovation Summit **19.–20. Mai 2026 in Atlanta. Die nächste Ära der Arbeitsplatzinnovation ist da – und das alte Spielbuch wird neu geschrieben. Bei diesem exklusiven, energiegeladenen Event versammeln sich die weltweit innovativsten Führungskräfte, um zu erkunden, wie KI, Menschlichkeit und Strategie erneut zusammenkommen, um die Zukunft der Arbeit neu zu definieren. Jetzt anmelden.