El Pentágono firma de una sola vez con 8 proveedores de IA, Anthropic queda fuera del grupo exclusivo

BlockBeatNews

Según Beating Monitoring, el Pentágono anunció acuerdos con 8 empresas tecnológicas, permitiéndoles desplegar sus herramientas de IA e infraestructura en redes confidenciales militares secretas (IL6) y ultrasecretas (IL7). Los nuevos firmantes incluyen Nvidia, Microsoft, AWS y la startup Reflection AI, además de las ya firmadas xAI, OpenAI, Google, y el día mismo, Oracle.

Cláusula central del acuerdo: todas las empresas aceptan que el Pentágono utilice su tecnología para «cualquier uso legal». Anthropic no está en la lista. Anteriormente, Claude era el único modelo grande utilizado por el Pentágono en entornos confidenciales, pero el CEO Dario Amodei rechazó aceptar ese estándar, exigiendo una garantía por escrito del gobierno de que no se usaría para vigilancia masiva interna ni armas autónomas letales. A finales de febrero, el Pentágono incluyó a Anthropic en la lista de riesgos de la cadena de suministro, y Trump posteriormente prohibió su participación en todos los contratos gubernamentales, y ambos están en una demanda en la corte federal. El Ministro de Defensa Hegseth afirmó en el Congreso que Amodei es un «lunático ideológico».

Pero, según fuentes anónimas citadas por The New York Times, al menos algunas de las nuevas empresas firmantes aceptaron el estándar de «cualquier uso legal» y, en privado, obtuvieron garantías similares a las que exige Anthropic, relacionadas con restricciones en drones autónomos y vigilancia interna.

El CTO del Pentágono, Emil Michael, afirmó que los modelos de código abierto representan una dirección completamente nueva. Nvidia y Reflection AI ofrecen modelos de código abierto, Microsoft y AWS proporcionan infraestructura, y xAI, OpenAI y Google ofrecen modelos cerrados. Michael indicó que los modelos de código abierto chinos ya están en muchas empresas, y que Estados Unidos necesita una alternativa.

Aunque el Pentágono está ansioso por reemplazar a Anthropic con OpenAI y Google, el proceso de migración ha presentado problemas técnicos, y los analistas de inteligencia siguen usando modelos antiguos de Anthropic para tareas diarias. Aunque Trump ordenó detener el uso de Anthropic antes de mediados de año, Mythos destaca en capacidades de ciberdefensa y ciberataques, y The New York Times afirma que casi con certeza se revocará esa prohibición.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Los usuarios de ChatGPT ahora pueden acceder a las suscripciones en la plataforma OpenClaw, anuncia Sam Altman

Según el anuncio de hoy de Sam Altman, los usuarios de ChatGPT ahora pueden iniciar sesión en la plataforma de agentes OpenClaw usando sus cuentas de ChatGPT y acceder directamente a sus suscripciones existentes de ChatGPT en la plataforma.

GateNewsHace37m

xAI lanza voces personalizadas de Grok, permitiendo a los usuarios clonar su propia voz de IA en un minuto

Beating afirma que xAI lanzó Grok Custom Voices y Voice Library, lo que permite a los usuarios grabar un minuto de audio en la consola de xAI para generar un voice_id personalizado para usar con las APIs de Grok TTS y Voice Agent. La función admite aplicaciones que incluyen agentes de atención al cliente, creación de contenido,

GateNewshace1h

¿El cuello de botella de la memoria de la IA después de HBM es HBF? El ganador del Premio Turing, David Patterson: la inferencia redefinirá de nuevo la arquitectura de almacenamiento

El premio Turing David Patterson señaló que, a medida que la IA pasa del entrenamiento a la inferencia a gran escala, el siguiente cuello de botella de memoria quizá no sea HBM, sino HBF (memoria flash de gran ancho de banda). HBF utiliza apilamientos de NAND Flash para ofrecer gran capacidad y bajo consumo de energía, y se encarga del acceso al contexto y a los datos intermedios durante la inferencia, a diferencia de la división de funciones con HBM, centrada en la velocidad. SK hynix y SanDisk están impulsando la estandarización, y se espera que para 2038 la demanda de HBF supere la de HBM.

ChainNewsAbmediahace2h

Cumbre de desarrolladores de Anthropic Code With Claude abre en San Francisco el 5/6: registro gratuito en vivo

Anthropic el 1 de mayo anunció que la primera conferencia de desarrolladores «Code with Claude» se inaugurará el 6 de mayo en San Francisco, y se ampliará por primera vez a Londres (19/5) y Tokio (10/6) en una gira de tres ciudades. Las plazas presenciales para las tres reuniones principales se asignan mediante sorteo y ya están agotadas, pero el registro para la transmisión en vivo sigue abierto para todos. Para responder a la sobredemanda de la sede presencial, el evento de San Francisco añadirá una fecha extra el 7/5 denominada «Extended», diseñada específicamente para desarrolladores independientes y fundadores en etapas iniciales. Las tres ciudades: 5/6 San Francisco, 5/19 Londres, 6/10 Tokio Code with Claude es una conferencia de desarrolladores organizada por Anthropic; el evento de San Francisco ya se celebra por segunda vez. El contenido de los 3 eventos es el mismo: talleres presenciales durante todo el día, demostraciones de las funciones más recientes y con Claude a través de cada ruta

ChainNewsAbmediahace2h

OpenAI publica datos de la primera semana de funcionamiento de GPT-5.5: el crecimiento de los ingresos por API alcanza un máximo histórico, Codex se duplica

OpenAI el 1 de mayo publicó en su cuenta oficial 3 datos tras una semana del lanzamiento de GPT-5.5: autoevaluó que es “el mejor lanzamiento de todas las épocas”, que el crecimiento de los ingresos de la API supera al de cualquier modelo anterior en más del doble, y que Codex duplicó sus ingresos en menos de 7 días. OpenAI atribuyó la causa a que la demanda del lado empresarial de herramientas de agentic coding (codificación asistida por agentes) sigue en aumento, y que esta sincronía con el GPT-5.5-Cyber del 30 de abril llevó a que se siga el mismo ritmo de productos que acompañó al choque con Anthropic Mythos. 3 ítems de los datos publicados: crecimiento a doble velocidad de los ingresos de la API, Codex duplicó en 7 días, mejor lanzamiento Los 3 números clave que OpenAI dio a conocer esta vez provienen de tuits oficiales y no incluyeron estados financieros detallados: primero, GPT-5.5 es “el de mayor crecimiento de ingresos de todas las épocas” y el módulo de…

ChainNewsAbmediahace2h

El Comité de Asuntos Exteriores de la Cámara de Representantes de EE. UU. se reúne con gigantes tecnológicos sobre los controles de exportación de IA después de que se apruebe la Ley MATCH con 36-8

Según Beating, los miembros de la Comisión de Asuntos Exteriores de la Cámara de Representantes de EE. UU. viajarán a Silicon Valley la próxima semana para reunirse con representantes de Google, Anthropic, Meta, Tesla, Intel, Applied Materials y Nvidia con el fin de analizar la inteligencia artificial y los controles de exportación. Una mesa redonda del sector es

GateNewshace3h
Comentar
0/400
Sin comentarios