Anthropic ha acusado a tres destacadas empresas chinas de inteligencia artificial de usar su chatbot Claude a gran escala para entrenar secretamente modelos rivales, un desarrollo inesperado en un debate global que lleva años sobre dónde termina el fraude y dónde comienza la práctica estándar de la industria.
Video recomendado
En una publicación en su blog el lunes, Anthropic, con sede en San Francisco, afirmó que los laboratorios chinos DeepSeek, Moonshot AI y MiniMax violaron la ley corporativa al interactuar con Claude, su herramienta de codificación de vibras que revoluciona el mercado. “Hemos identificado campañas a escala industrial por parte de tres laboratorios de IA—DeepSeek, Moonshot y MiniMax—para extraer ilícitamente las capacidades de Claude y mejorar sus propios modelos,” dijo la compañía. “Estos laboratorios generaron más de 16 millones de intercambios con Claude a través de aproximadamente 24,000 cuentas fraudulentas, en violación de nuestros términos de servicio y restricciones de acceso regionales.”
Según Anthropic, las empresas chinas utilizaron una técnica conocida como “destilación,” en la que un modelo se entrena con los resultados de otro, a menudo un sistema más capaz. Las campañas supuestamente se centraron en áreas que Anthropic considera diferenciadores clave para Claude, incluyendo razonamiento complejo, asistencia en codificación y uso de herramientas.
Anthropic argumenta que, aunque la destilación es un método de entrenamiento “ampliamente utilizado y legítimo,” el uso que las empresas chinas le dieron en este modo podría haber sido para “fines ilícitos.” Utilizar redes extensas de cuentas falsas para replicar un modelo propietario de un competidor viola sus términos de servicio y socava los controles de exportación de EE. UU. destinados a limitar el acceso de China a la IA de vanguardia, afirmó Anthropic, instando a “una acción rápida y coordinada entre los actores de la industria, los responsables políticos y la comunidad global de IA.”
Si bien no exactamente destilación, Anthropic fue acusada recientemente de violaciones de derechos de autor por miles de autores, supuestamente descargando libros en masa de bibliotecas shadow para entrenar sus modelos de IA, en lugar de comprar copias y escanear ellos mismos. En un movimiento histórico, Anthropic resolvió esa demanda por 1.500 millones de dólares en septiembre de 2025, pagando a los autores alrededor de 3,000 dólares por libro por aproximadamente 500,000 obras.
Cómo se acusa a las empresas chinas de hacerlo
La compañía afirma que los tres laboratorios eludieron las restricciones de geocercas y comerciales que limitan la disponibilidad comercial de Claude en China, redirigiendo el tráfico a través de servicios proxy que revenden el acceso a modelos de IA occidentales importantes. Uno de estos “grupos hydra,” dijo Anthropic, operaba decenas de miles de cuentas simultáneamente para distribuir solicitudes a través de diferentes claves API y proveedores de la nube.
Una vez que esas cuentas estaban en marcha, los laboratorios supuestamente programaron conversaciones largas y de alto token diseñadas para extraer respuestas detalladas, paso a paso, que luego podían ser alimentadas de vuelta a sus propios sistemas como datos de entrenamiento. Según Anthropic, el resultado fue una línea de producción no oficial que convirtió a Claude en un profesor no voluntario para modelos en desarrollo dentro del sector de IA cada vez más competitivo en China.
Anthropic aún no ha anunciado demandas específicas contra las tres empresas, pero ha señalado que ha bloqueado los puntos de acceso conocidos y está instando a Washington a fortalecer los controles de exportación de chips avanzados y servicios de IA para prevenir esfuerzos similares en el futuro.
‘Cómo cambian las tornas’
Si Anthropic esperaba empatía, la reacción en línea y entre los observadores de la industria ha sido notablemente escéptica. Los comentaristas rápidamente señalaron que Anthropic en sí misma ha enfrentado acusaciones de exceso en sus prácticas de recopilación de datos, además del caso de derechos de autor de los autores, como un caso separado por raspar contenido de Reddit. “Cómo cambian las tornas,” escribió un comentarista en el hilo de Reddit r/singularity, un juego de palabras a menudo atribuido a un meme derivado del programa de televisión The Office.
Detrás de las críticas hay una lucha más amplia sobre quién establece las reglas para una industria construida sobre la reutilización del trabajo humano. Empresas estadounidenses como Anthropic y OpenAI han presionado cada vez más por una aplicación estricta contra competidores extranjeros a quienes acusan de copiar sistemas propietarios, incluso mientras defienden su propia recopilación masiva de datos bajo la bandera del uso justo.
Muchos laboratorios chinos, que lanzan modelos de código abierto, están compitiendo para cerrar la brecha de rendimiento con sus rivales occidentales usando cualquier ventaja legal que puedan encontrar. Con Washington ya debatiendo restricciones más estrictas para exportar chips de IA y servicios en la nube a China, las acusaciones de Anthropic probablemente alimentarán llamadas por nuevas regulaciones, mientras que los críticos tendrán otra oportunidad para señalar la incómoda simetría en el corazón de la IA moderna.
Para esta historia, los periodistas de Fortune utilizaron IA generativa como herramienta de investigación. Un editor verificó la precisión de la información antes de su publicación.
**Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune **19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic afirma que 3 empresas chinas lo copiaron, usando sus herramientas de IA para entrenar sus modelos: ‘Cómo cambian las tornas’
Anthropic ha acusado a tres destacadas empresas chinas de inteligencia artificial de usar su chatbot Claude a gran escala para entrenar secretamente modelos rivales, un desarrollo inesperado en un debate global que lleva años sobre dónde termina el fraude y dónde comienza la práctica estándar de la industria.
Video recomendado
En una publicación en su blog el lunes, Anthropic, con sede en San Francisco, afirmó que los laboratorios chinos DeepSeek, Moonshot AI y MiniMax violaron la ley corporativa al interactuar con Claude, su herramienta de codificación de vibras que revoluciona el mercado. “Hemos identificado campañas a escala industrial por parte de tres laboratorios de IA—DeepSeek, Moonshot y MiniMax—para extraer ilícitamente las capacidades de Claude y mejorar sus propios modelos,” dijo la compañía. “Estos laboratorios generaron más de 16 millones de intercambios con Claude a través de aproximadamente 24,000 cuentas fraudulentas, en violación de nuestros términos de servicio y restricciones de acceso regionales.”
Según Anthropic, las empresas chinas utilizaron una técnica conocida como “destilación,” en la que un modelo se entrena con los resultados de otro, a menudo un sistema más capaz. Las campañas supuestamente se centraron en áreas que Anthropic considera diferenciadores clave para Claude, incluyendo razonamiento complejo, asistencia en codificación y uso de herramientas.
Anthropic argumenta que, aunque la destilación es un método de entrenamiento “ampliamente utilizado y legítimo,” el uso que las empresas chinas le dieron en este modo podría haber sido para “fines ilícitos.” Utilizar redes extensas de cuentas falsas para replicar un modelo propietario de un competidor viola sus términos de servicio y socava los controles de exportación de EE. UU. destinados a limitar el acceso de China a la IA de vanguardia, afirmó Anthropic, instando a “una acción rápida y coordinada entre los actores de la industria, los responsables políticos y la comunidad global de IA.”
Si bien no exactamente destilación, Anthropic fue acusada recientemente de violaciones de derechos de autor por miles de autores, supuestamente descargando libros en masa de bibliotecas shadow para entrenar sus modelos de IA, en lugar de comprar copias y escanear ellos mismos. En un movimiento histórico, Anthropic resolvió esa demanda por 1.500 millones de dólares en septiembre de 2025, pagando a los autores alrededor de 3,000 dólares por libro por aproximadamente 500,000 obras.
Cómo se acusa a las empresas chinas de hacerlo
La compañía afirma que los tres laboratorios eludieron las restricciones de geocercas y comerciales que limitan la disponibilidad comercial de Claude en China, redirigiendo el tráfico a través de servicios proxy que revenden el acceso a modelos de IA occidentales importantes. Uno de estos “grupos hydra,” dijo Anthropic, operaba decenas de miles de cuentas simultáneamente para distribuir solicitudes a través de diferentes claves API y proveedores de la nube.
Una vez que esas cuentas estaban en marcha, los laboratorios supuestamente programaron conversaciones largas y de alto token diseñadas para extraer respuestas detalladas, paso a paso, que luego podían ser alimentadas de vuelta a sus propios sistemas como datos de entrenamiento. Según Anthropic, el resultado fue una línea de producción no oficial que convirtió a Claude en un profesor no voluntario para modelos en desarrollo dentro del sector de IA cada vez más competitivo en China.
Anthropic aún no ha anunciado demandas específicas contra las tres empresas, pero ha señalado que ha bloqueado los puntos de acceso conocidos y está instando a Washington a fortalecer los controles de exportación de chips avanzados y servicios de IA para prevenir esfuerzos similares en el futuro.
‘Cómo cambian las tornas’
Si Anthropic esperaba empatía, la reacción en línea y entre los observadores de la industria ha sido notablemente escéptica. Los comentaristas rápidamente señalaron que Anthropic en sí misma ha enfrentado acusaciones de exceso en sus prácticas de recopilación de datos, además del caso de derechos de autor de los autores, como un caso separado por raspar contenido de Reddit. “Cómo cambian las tornas,” escribió un comentarista en el hilo de Reddit r/singularity, un juego de palabras a menudo atribuido a un meme derivado del programa de televisión The Office.
Detrás de las críticas hay una lucha más amplia sobre quién establece las reglas para una industria construida sobre la reutilización del trabajo humano. Empresas estadounidenses como Anthropic y OpenAI han presionado cada vez más por una aplicación estricta contra competidores extranjeros a quienes acusan de copiar sistemas propietarios, incluso mientras defienden su propia recopilación masiva de datos bajo la bandera del uso justo.
Muchos laboratorios chinos, que lanzan modelos de código abierto, están compitiendo para cerrar la brecha de rendimiento con sus rivales occidentales usando cualquier ventaja legal que puedan encontrar. Con Washington ya debatiendo restricciones más estrictas para exportar chips de IA y servicios en la nube a China, las acusaciones de Anthropic probablemente alimentarán llamadas por nuevas regulaciones, mientras que los críticos tendrán otra oportunidad para señalar la incómoda simetría en el corazón de la IA moderna.
Para esta historia, los periodistas de Fortune utilizaron IA generativa como herramienta de investigación. Un editor verificó la precisión de la información antes de su publicación.
**Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune **19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.