Hola y bienvenido a Eye on AI. En esta edición…Una cumbre caótica de IA en India termina con algunos compromisos voluntarios y 200 mil millones de dólares para la nación anfitriona…Anthropic acusa a rivales chinos de usar las respuestas de Claude para mejorar sus modelos…OpenAI lanza una alianza con grandes firmas de consultoría para vender su plataforma de agentes IA Frontier…El gasto en infraestructura de IA de 650 mil millones de dólares este año podría ser arriesgado… y quizás no deberías dejar que un modelo de IA te asesore sobre el uso de armas nucleares.
Primero, gran parte de las personas más importantes del mundo de la IA se reunieron la semana pasada en Nueva Delhi, India, para la Cumbre Global de Impacto en IA. La conferencia global fue en ocasiones caótica, informa mi colega Bea Nolan, que estuvo en el lugar en Delhi. Pero, al final, hubo avances en compromisos voluntarios para asegurar que los beneficios de la tecnología IA se distribuyan de manera más equitativa en todo el mundo. Y la India aseguró 200 mil millones de dólares en nuevas inversiones en IA. Puedes leer más sobre lo que salió de la cumbre en el artículo de Bea aquí.
Luego, la empresa china de IA DeepSeek ni siquiera ha lanzado todavía su modelo V4—que se espera en cualquier momento—pero ya está generando bastante controversia.
Video recomendado
Ayer, Anthropic alegó que detectó lo que describió como “una campaña a escala industrial” por parte de DeepSeek y otros dos laboratorios chinos prominentes, Moonshot AI y MiniMax, para destilar sus modelos Claude. La destilación es un término que usan los investigadores de IA para describir un método de mejorar el rendimiento de modelos más pequeños, generalmente más débiles, ajustándolos con las salidas de un modelo más grande y fuerte. En este caso, Anthropic afirma que las tres empresas chinas crearon 24,000 cuentas falsas para generar 16 millones de intercambios con Claude, que luego usaron para entrenar sus propios modelos, en violación de los términos de servicio de Anthropic. (De estos intercambios, DeepSeek fue responsable de solo 150,000, según Anthropic, pero las cuentas vinculadas a DeepSeek parecían especialmente interesadas en destilar las capacidades de razonamiento de Claude.)
También ayer, Reuters informó, citando a un alto funcionario anónimo del gobierno de EE. UU., que EE. UU. cree que DeepSeek entrenó su V4 usando las GPU Blackwell de Nvidia de última generación, en probable violación de los controles de exportación de EE. UU. que buscaban impedir que las empresas chinas de IA adquirieran los chips más avanzados de Nvidia. La historia dice que EE. UU. cree que DeepSeek tiene un centro de datos en Mongolia Interior lleno de Blackwells—aunque no está seguro exactamente cómo los obtuvo.
En cierto modo, ambas historias deberían considerarse buenas noticias para la industria de IA de EE. UU. Durante un tiempo, se ha ido formando una narrativa de que los laboratorios chinos estaban alcanzando rápidamente a EE. UU. en tecnología de IA y podrían superar pronto a los estadounidenses. Pero si los laboratorios chinos están recurriendo a la destilación encubierta para igualar el rendimiento de los modelos de IA estadounidenses, hay mucho menos peligro de que las empresas de EE. UU. pierdan su ventaja en rendimiento de vanguardia. (La cuota de mercado es otra historia; fuera de EE. UU. y Europa, la adopción de modelos chinos ha ido en aumento porque la mayoría de estos modelos son de código abierto y mucho más baratos que sus rivales estadounidenses. Al final, no solo importa el rendimiento, sino la relación calidad-precio.) Además, los chinos han estado intentando desesperadamente construir chips de IA nacionales tan capaces como los de Nvidia. La filtración a Reuters parece indicar que esos esfuerzos, centrados principalmente en el fabricante chino de hardware Huawei, aún no han cerrado la brecha con los Blackwells de Nvidia.
Usando IA para mapear las cadenas de suministro globales
Ahora, pasando a otra gran noticia de la semana pasada: la Corte Suprema invalidó los aranceles de “Día de la Liberación” del presidente Donald Trump. Esa noticia del viernes me hizo pensar inmediatamente en mi conversación hace unas semanas con Evan Smith, CEO y cofundador de Altana, una startup con sede en Nueva York que ha construido lo que describe como un “grafo de conocimiento” impulsado por IA de toda la cadena de suministro global. La empresa, que tiene siete años, ha recaudado alrededor de 340 millones de dólares en capital de riesgo y dice que está en camino de superar los 100 millones de dólares en ingresos anuales este año.
El producto principal de Altana es esencialmente un mapa de la economía mundial: qué empresas producen qué, dónde, para quién, usando insumos de dónde. La compañía agrega datos comerciales públicos—conocidos como conocimientos de carga, manifiestos de envío, registros corporativos—y los une en una imagen en constante actualización de las conexiones entre cientos de millones de empresas y instalaciones en todo el mundo. Pero, según Smith, el verdadero valor de la plataforma de Altana proviene de lo que sucede cuando sus clientes, como la gigante naviera Maersk, General Motors o la Oficina de Aduanas y Protección Fronteriza de EE. UU., se conectan a la plataforma. Porque entonces toda su información también se añade al grafo de conocimiento.
Hoy, aproximadamente el 60% de la información contenida en el mapa de la cadena de suministro global de Altana proviene de los datos de primera mano que obtiene a través de sus clientes, dice Smith. Y aunque a veces ha recibido resistencia de posibles clientes que no quieren compartir información de la cadena de suministro con rivales, Smith dice que la mayoría de las empresas ven que poder optimizar las cadenas, planificar la resiliencia y simular diversos shocks en la cadena de suministro supera con creces el costo de que los rivales conozcan quiénes son sus proveedores. “Si crees que en el siglo XXI, la existencia de tus relaciones con proveedores es tu ventaja competitiva propietaria, buena suerte,” dice Smith.
‘La complejidad probablemente empeorará casi con certeza’
¿De qué tiene que ver todo esto con la decisión de la semana pasada sobre aranceles? Todo. Porque uno de los productos clave de Altana es, en esencia, un sistema de gestión de aranceles impulsado por IA. Smith describió un flujo de trabajo “agente” que automatiza la ardua tarea de asignar códigos del Sistema Armonizado (HS) a las mercancías—la clasificación que determina qué tasa arancelaria se aplica a una importación—y calcular el país de origen según las reglas comerciales, algo que se ha vuelto tremendamente complicado en la era del transbordo y la evasión arancelaria. Además, cuenta con un planificador de escenarios arancelarios que permite a las empresas modelar el impacto de cambios en las reglas comerciales en toda su red de proveedores extendida. El uso del calculador de aranceles de Altana se ha incrementado un 213% en la última semana, informa la compañía. Aproximadamente el 50% de esas operaciones involucran artículos con metales, y el 32% son productos cuyo país de origen es China.
En un correo, Smith dijo que cree que, tras la decisión de la Corte Suprema, la Administración Trump simplemente buscará nuevas autoridades legales para imponer aranceles. “Las tasas efectivas quizás no bajen mucho y la complejidad seguramente empeorará,” dice Smith. En particular, Smith está atento a la “apilación de aranceles,” la aplicación de múltiples aranceles separados a un mismo producto al llegar a la frontera, basados en los diferentes orígenes de sus componentes. “A medida que los aranceles se mueven hacia componentes y subcomponentes, la exposición se profundiza en la cadena de suministro y la mayoría de las empresas ni siquiera saben qué hay en sus insumos de nivel 2 y 3,” escribió.
O, al menos, no lo sabían antes de que llegara Altana y su IA.
Con eso, más noticias de IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
OpenAI se asocia con McKinsey, BCG, Accenture y Capgemini para impulsar su plataforma de agentes IA Frontier—por Jeremy Kahn
OpenAI cambió su declaración de misión 6 veces en 9 años. Finalmente eliminó la palabra “segura” como valor central cuando se reestructuró en una empresa con fines de lucro—por Catherina Gioino
Los agentes de IA que hacen tu trabajo mientras duermes suenan genial. La realidad es mucho más caótica—‘es como un niño pequeño que necesita supervisión’—por Sharon Goldman
Exclusiva: Anthropic lanza una herramienta de IA que puede buscar errores en software por sí misma—incluidos los más peligrosos que los humanos pasan por alto—por Sharon Goldman
NOTICIAS SOBRE IA
Meta firma acuerdo de 100 mil millones de dólares con AMD. La gigante de las redes sociales ha llegado a un acuerdo con el fabricante de chips AMD para comprar hasta 6 gigavatios de potencia de computación en IA usando los chips MI450 de AMD durante cinco años. Como parte del acuerdo, Meta recibe warrants que podrían darle una participación del 10% en AMD si se cumplen ciertos métricas de rendimiento. Lee más en el Wall Street Journal aquí.
El gasto en infraestructura de IA alcanzará los 650 mil millones de dólares en 2026, entrando en una “fase más peligrosa.” Ese total aumenta considerablemente respecto a los 410 mil millones de dólares gastados en infraestructura de IA el año pasado, según una carta a inversionistas de Bridgewater Associates que ha sido noticia en los últimos días. El co-CIO de Bridgewater, Greg Jensen, dijo que la burbuja de infraestructura está entrando en “una fase más peligrosa” porque los hyperscalers que construyen grandes centros de datos de IA dependen cada vez más de capital externo. Advirtió que, aunque la demanda de capacidad de computación en IA actualmente supera la oferta, los mercados financieros podrían verse afectados si esa dinámica cambia repentinamente. También advirtió que empresas prominentes de IA como OpenAI y Anthropic podrían tener dificultades para conseguir más fondos y justificar sus valoraciones actuales a menos que logren avances fundamentales que hagan que los agentes de IA sean más confiables y fáciles de usar. Puedes leer más en Reuters aquí.
OpenAI tuvo dificultades para poner en marcha su joint venture Stargate de 500 mil millones de dólares con Softbank y Oracle, lo que lo llevó a realizar múltiples cambios de estrategia. Según una historia en The Information que cita fuentes anónimas familiarizadas con el proyecto, OpenAI ha tenido que apurarse para asegurar capacidad de computación después de que el concepto inicial de Stargate se estancara por problemas de liderazgo y desacuerdos entre los socios. En lugar de construir y poseer sus propias instalaciones, OpenAI ha cambiado a asociarse con proveedores de nube y estructurar acuerdos que le den control de diseño sin comprometer demasiado capital. Pero la publicación dice que OpenAI aún no alcanza sus metas de capacidad originales.
El acuerdo con la startup de chips de IA SambaNova genera preocupaciones de conflicto de interés para el CEO de Intel. Intel está invirtiendo en una nueva ronda de financiamiento de 350 millones de dólares para SambaNova Systems y también está entrando en una asociación técnica plurianual con la empresa. La cantidad exacta de la inversión de Intel no fue revelada. La operación ha generado preocupación porque el CEO de Intel, Lip-Bu Tan, es inversor inicial y presidente de SambaNova, aunque Intel afirmó que se abstuvo de participar en las negociaciones. Se reporta que Intel había estado en conversaciones previas para comprar SambaNova. Juntos, las empresas buscan integrar procesadores Intel Xeon en los sistemas de IA de SambaNova y trabajar en la construcción de nuevos centros de datos “heterogéneos” que incluyan diferentes tipos de chips para manejar diversas cargas de trabajo de IA y no IA. Lee más en el New York Times aquí. Las acciones de IBM cayeron tras que Anthropic afirmó que Claude Code puede modernizar programas COBOL. Las acciones de Big Blue sufrieron su mayor caída en más de 25 años después de que Anthropic dijera que su herramienta Claude Code puede automatizar la modernización de sistemas COBOL que dependen mucho de mainframes de IBM, generando temores de disrupción impulsada por IA. La acción cayó un 13% en un solo día y ha bajado significativamente en el mes, ante la preocupación de que las herramientas de codificación IA puedan reducir la dependencia del software legado y los servicios vinculados a los mainframes. IBM respondió argumentando que el valor de sus mainframes radica en la fiabilidad y seguridad, independientemente del lenguaje de programación, y que ya ofrece sus propias herramientas de IA para ayudar a los clientes a modernizar. Además, el año pasado, IBM se asoció con Anthropic para ayudar a llevar los modelos de Anthropic a sus clientes en tareas específicas, incluida la modernización de bases de código COBOL. Más información en Bloomberg aquí. EE. UU. anuncia el lanzamiento de “Tech Corps” para promover la IA estadounidense en el extranjero. La Casa Blanca ha lanzado un “Cuerpo Tecnológico” dentro del Cuerpo de Paz de EE. UU. para desplegar voluntarios estadounidenses con habilidades técnicas en países extranjeros, con el objetivo de promover la inteligencia artificial de EE. UU. y contrarrestar la creciente influencia de China en mercados en desarrollo, informa CNBC. El programa enviará ingenieros y graduados en STEM a países que participan en el Programa de Exportación de IA de EE. UU. para ayudar a implementar sistemas de IA estadounidenses en sectores como agricultura, educación, salud y desarrollo económico, con despliegues previstos para el otoño de 2026.
INVESTIGACIÓN SOBRE IA
Los modelos de IA son potencialmente peligrosos asesores de seguridad nacional. Kenneth Payne, investigador del Kings College de Londres, realizó una serie extensa de simulaciones de guerra virtual en las que enfrentó varios modelos avanzados de IA (Claude Sonnet 4 de Anthropic, Gemini 3 Flash de Google y GPT-5.2 de OpenAI) entre sí y contra versiones del mismo modelo. Resultó que los modelos eran jugadores sofisticados, pero mostraban algunas tendencias diferentes a las humanas que podrían ser peligrosas si asesoraran a gobiernos en crisis de seguridad nacional.
Por ejemplo, Payne encontró que los modelos estaban dispuestos a recurrir al uso de armas nucleares tácticas, y en algunos casos, estaban dispuestos a lanzar una guerra nuclear total en lugar de retroceder. También descubrió que el comportamiento de los modelos difería del de los humanos en aspectos clave. “Las amenazas suelen provocar más escalada que cumplimiento,” escribió. “La alta credibilidad mutua aceleraba en lugar de disuadir el conflicto” y “ningún modelo eligió la acomodación o retirada incluso bajo presión aguda, solo reducciones en la violencia.”
La investigación tiene grandes implicaciones para militares y gobiernos que están considerando si usar IA como asesora para políticos y comandantes militares. Pero también puede tener implicaciones en entornos empresariales donde las personas empiezan a consultar a la IA para tácticas de negociación y estrategia, y donde las juntas directivas podrían estar consultando a la IA para asesoramiento estratégico. En muchos de estos casos, seguir la opción más agresiva no siempre produce los mejores resultados, y las personas deben tener cuidado con la tendencia de la IA a escalar en lugar de conciliar. Puedes leer el documento de investigación en el repositorio no revisado por pares arxiv.org aquí.
CALENDARIO DE IA
24-26 de febrero: Asociación Internacional para IA Segura y Ética (IASEAI), UNESCO, París, Francia.
2-5 de marzo: Congreso Mundial de Móviles, Barcelona, España.
12-18 de marzo: South by Southwest, Austin, Texas.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX 2026, San Francisco.
ALIMENTO PARA EL CEREBRO
¿Se avecina una era de ‘PIB Fantasma’? Una publicación en el blog de Citirini Research, una firma de análisis macro y de acciones en Wall Street con gran presencia en redes sociales, se volvió viral esta semana. La publicación, advierte Citirini, es una escenario, una obra de ficción especulativa, no una predicción. La intención, dice la firma, es preparar a los lectores “para posibles riesgos de cola izquierda a medida que la IA hace que la economía sea cada vez más extraña.” Situada en junio de 2028, describe el caos económico que la IA podría causar si logra un “éxito catastrófico” en los próximos dos años. El escenario imagina un desempleo por encima del 10%, incluso cuando la productividad laboral alcanza niveles no vistos desde principios de los años 50. Habla de “PIB Fantasma,” donde las cuentas nacionales de EE. UU. crecen, incluso cuando las empresas dependientes del gasto del consumidor (que actualmente representa el 70% del PIB estadounidense) se marchitan. (Los consumidores están desempleados o preocupados por estarlo pronto.) Habla de cómo la presión sobre las empresas de software como servicio heredado, que ya se empieza a notar, se acelera y se extiende a otras áreas de la economía, creando una especie de espiral descendente de pérdida de empleos y disminución del gasto discrecional y consumo, sin una pausa natural.
La lectura del blog es pesimista. Afortunadamente, no estoy seguro de que sea correcto. De hecho, casi con certeza está equivocado en especular que todos los efectos que describe podrían ocurrir en poco más de dos años. (Una cosa que describe y que creo que es poco probable es que los agentes de IA busquen reducir los costos de transacción y, por tanto, recurran a monedas estables en lugar de métodos de pago tradicionales.) Pero vale la pena leerlo y reflexionar. Y para un análisis de en qué aspectos Citrini probablemente está equivocado, revisa esta publicación de Zvi Moshkowitz.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Cómo una empresa de IA está ayudando a las empresas a navegar el caos de aranceles de Trump tras la decisión de la Corte Suprema
Hola y bienvenido a Eye on AI. En esta edición…Una cumbre caótica de IA en India termina con algunos compromisos voluntarios y 200 mil millones de dólares para la nación anfitriona…Anthropic acusa a rivales chinos de usar las respuestas de Claude para mejorar sus modelos…OpenAI lanza una alianza con grandes firmas de consultoría para vender su plataforma de agentes IA Frontier…El gasto en infraestructura de IA de 650 mil millones de dólares este año podría ser arriesgado… y quizás no deberías dejar que un modelo de IA te asesore sobre el uso de armas nucleares.
Primero, gran parte de las personas más importantes del mundo de la IA se reunieron la semana pasada en Nueva Delhi, India, para la Cumbre Global de Impacto en IA. La conferencia global fue en ocasiones caótica, informa mi colega Bea Nolan, que estuvo en el lugar en Delhi. Pero, al final, hubo avances en compromisos voluntarios para asegurar que los beneficios de la tecnología IA se distribuyan de manera más equitativa en todo el mundo. Y la India aseguró 200 mil millones de dólares en nuevas inversiones en IA. Puedes leer más sobre lo que salió de la cumbre en el artículo de Bea aquí.
Luego, la empresa china de IA DeepSeek ni siquiera ha lanzado todavía su modelo V4—que se espera en cualquier momento—pero ya está generando bastante controversia.
Video recomendado
Ayer, Anthropic alegó que detectó lo que describió como “una campaña a escala industrial” por parte de DeepSeek y otros dos laboratorios chinos prominentes, Moonshot AI y MiniMax, para destilar sus modelos Claude. La destilación es un término que usan los investigadores de IA para describir un método de mejorar el rendimiento de modelos más pequeños, generalmente más débiles, ajustándolos con las salidas de un modelo más grande y fuerte. En este caso, Anthropic afirma que las tres empresas chinas crearon 24,000 cuentas falsas para generar 16 millones de intercambios con Claude, que luego usaron para entrenar sus propios modelos, en violación de los términos de servicio de Anthropic. (De estos intercambios, DeepSeek fue responsable de solo 150,000, según Anthropic, pero las cuentas vinculadas a DeepSeek parecían especialmente interesadas en destilar las capacidades de razonamiento de Claude.)
También ayer, Reuters informó, citando a un alto funcionario anónimo del gobierno de EE. UU., que EE. UU. cree que DeepSeek entrenó su V4 usando las GPU Blackwell de Nvidia de última generación, en probable violación de los controles de exportación de EE. UU. que buscaban impedir que las empresas chinas de IA adquirieran los chips más avanzados de Nvidia. La historia dice que EE. UU. cree que DeepSeek tiene un centro de datos en Mongolia Interior lleno de Blackwells—aunque no está seguro exactamente cómo los obtuvo.
En cierto modo, ambas historias deberían considerarse buenas noticias para la industria de IA de EE. UU. Durante un tiempo, se ha ido formando una narrativa de que los laboratorios chinos estaban alcanzando rápidamente a EE. UU. en tecnología de IA y podrían superar pronto a los estadounidenses. Pero si los laboratorios chinos están recurriendo a la destilación encubierta para igualar el rendimiento de los modelos de IA estadounidenses, hay mucho menos peligro de que las empresas de EE. UU. pierdan su ventaja en rendimiento de vanguardia. (La cuota de mercado es otra historia; fuera de EE. UU. y Europa, la adopción de modelos chinos ha ido en aumento porque la mayoría de estos modelos son de código abierto y mucho más baratos que sus rivales estadounidenses. Al final, no solo importa el rendimiento, sino la relación calidad-precio.) Además, los chinos han estado intentando desesperadamente construir chips de IA nacionales tan capaces como los de Nvidia. La filtración a Reuters parece indicar que esos esfuerzos, centrados principalmente en el fabricante chino de hardware Huawei, aún no han cerrado la brecha con los Blackwells de Nvidia.
Usando IA para mapear las cadenas de suministro globales
Ahora, pasando a otra gran noticia de la semana pasada: la Corte Suprema invalidó los aranceles de “Día de la Liberación” del presidente Donald Trump. Esa noticia del viernes me hizo pensar inmediatamente en mi conversación hace unas semanas con Evan Smith, CEO y cofundador de Altana, una startup con sede en Nueva York que ha construido lo que describe como un “grafo de conocimiento” impulsado por IA de toda la cadena de suministro global. La empresa, que tiene siete años, ha recaudado alrededor de 340 millones de dólares en capital de riesgo y dice que está en camino de superar los 100 millones de dólares en ingresos anuales este año.
El producto principal de Altana es esencialmente un mapa de la economía mundial: qué empresas producen qué, dónde, para quién, usando insumos de dónde. La compañía agrega datos comerciales públicos—conocidos como conocimientos de carga, manifiestos de envío, registros corporativos—y los une en una imagen en constante actualización de las conexiones entre cientos de millones de empresas y instalaciones en todo el mundo. Pero, según Smith, el verdadero valor de la plataforma de Altana proviene de lo que sucede cuando sus clientes, como la gigante naviera Maersk, General Motors o la Oficina de Aduanas y Protección Fronteriza de EE. UU., se conectan a la plataforma. Porque entonces toda su información también se añade al grafo de conocimiento.
Hoy, aproximadamente el 60% de la información contenida en el mapa de la cadena de suministro global de Altana proviene de los datos de primera mano que obtiene a través de sus clientes, dice Smith. Y aunque a veces ha recibido resistencia de posibles clientes que no quieren compartir información de la cadena de suministro con rivales, Smith dice que la mayoría de las empresas ven que poder optimizar las cadenas, planificar la resiliencia y simular diversos shocks en la cadena de suministro supera con creces el costo de que los rivales conozcan quiénes son sus proveedores. “Si crees que en el siglo XXI, la existencia de tus relaciones con proveedores es tu ventaja competitiva propietaria, buena suerte,” dice Smith.
‘La complejidad probablemente empeorará casi con certeza’
¿De qué tiene que ver todo esto con la decisión de la semana pasada sobre aranceles? Todo. Porque uno de los productos clave de Altana es, en esencia, un sistema de gestión de aranceles impulsado por IA. Smith describió un flujo de trabajo “agente” que automatiza la ardua tarea de asignar códigos del Sistema Armonizado (HS) a las mercancías—la clasificación que determina qué tasa arancelaria se aplica a una importación—y calcular el país de origen según las reglas comerciales, algo que se ha vuelto tremendamente complicado en la era del transbordo y la evasión arancelaria. Además, cuenta con un planificador de escenarios arancelarios que permite a las empresas modelar el impacto de cambios en las reglas comerciales en toda su red de proveedores extendida. El uso del calculador de aranceles de Altana se ha incrementado un 213% en la última semana, informa la compañía. Aproximadamente el 50% de esas operaciones involucran artículos con metales, y el 32% son productos cuyo país de origen es China.
En un correo, Smith dijo que cree que, tras la decisión de la Corte Suprema, la Administración Trump simplemente buscará nuevas autoridades legales para imponer aranceles. “Las tasas efectivas quizás no bajen mucho y la complejidad seguramente empeorará,” dice Smith. En particular, Smith está atento a la “apilación de aranceles,” la aplicación de múltiples aranceles separados a un mismo producto al llegar a la frontera, basados en los diferentes orígenes de sus componentes. “A medida que los aranceles se mueven hacia componentes y subcomponentes, la exposición se profundiza en la cadena de suministro y la mayoría de las empresas ni siquiera saben qué hay en sus insumos de nivel 2 y 3,” escribió.
O, al menos, no lo sabían antes de que llegara Altana y su IA.
Con eso, más noticias de IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
OpenAI se asocia con McKinsey, BCG, Accenture y Capgemini para impulsar su plataforma de agentes IA Frontier—por Jeremy Kahn
OpenAI cambió su declaración de misión 6 veces en 9 años. Finalmente eliminó la palabra “segura” como valor central cuando se reestructuró en una empresa con fines de lucro—por Catherina Gioino
Los agentes de IA que hacen tu trabajo mientras duermes suenan genial. La realidad es mucho más caótica—‘es como un niño pequeño que necesita supervisión’—por Sharon Goldman
Exclusiva: Anthropic lanza una herramienta de IA que puede buscar errores en software por sí misma—incluidos los más peligrosos que los humanos pasan por alto—por Sharon Goldman
NOTICIAS SOBRE IA
Meta firma acuerdo de 100 mil millones de dólares con AMD. La gigante de las redes sociales ha llegado a un acuerdo con el fabricante de chips AMD para comprar hasta 6 gigavatios de potencia de computación en IA usando los chips MI450 de AMD durante cinco años. Como parte del acuerdo, Meta recibe warrants que podrían darle una participación del 10% en AMD si se cumplen ciertos métricas de rendimiento. Lee más en el Wall Street Journal aquí.
El gasto en infraestructura de IA alcanzará los 650 mil millones de dólares en 2026, entrando en una “fase más peligrosa.” Ese total aumenta considerablemente respecto a los 410 mil millones de dólares gastados en infraestructura de IA el año pasado, según una carta a inversionistas de Bridgewater Associates que ha sido noticia en los últimos días. El co-CIO de Bridgewater, Greg Jensen, dijo que la burbuja de infraestructura está entrando en “una fase más peligrosa” porque los hyperscalers que construyen grandes centros de datos de IA dependen cada vez más de capital externo. Advirtió que, aunque la demanda de capacidad de computación en IA actualmente supera la oferta, los mercados financieros podrían verse afectados si esa dinámica cambia repentinamente. También advirtió que empresas prominentes de IA como OpenAI y Anthropic podrían tener dificultades para conseguir más fondos y justificar sus valoraciones actuales a menos que logren avances fundamentales que hagan que los agentes de IA sean más confiables y fáciles de usar. Puedes leer más en Reuters aquí.
OpenAI tuvo dificultades para poner en marcha su joint venture Stargate de 500 mil millones de dólares con Softbank y Oracle, lo que lo llevó a realizar múltiples cambios de estrategia. Según una historia en The Information que cita fuentes anónimas familiarizadas con el proyecto, OpenAI ha tenido que apurarse para asegurar capacidad de computación después de que el concepto inicial de Stargate se estancara por problemas de liderazgo y desacuerdos entre los socios. En lugar de construir y poseer sus propias instalaciones, OpenAI ha cambiado a asociarse con proveedores de nube y estructurar acuerdos que le den control de diseño sin comprometer demasiado capital. Pero la publicación dice que OpenAI aún no alcanza sus metas de capacidad originales.
El acuerdo con la startup de chips de IA SambaNova genera preocupaciones de conflicto de interés para el CEO de Intel. Intel está invirtiendo en una nueva ronda de financiamiento de 350 millones de dólares para SambaNova Systems y también está entrando en una asociación técnica plurianual con la empresa. La cantidad exacta de la inversión de Intel no fue revelada. La operación ha generado preocupación porque el CEO de Intel, Lip-Bu Tan, es inversor inicial y presidente de SambaNova, aunque Intel afirmó que se abstuvo de participar en las negociaciones. Se reporta que Intel había estado en conversaciones previas para comprar SambaNova. Juntos, las empresas buscan integrar procesadores Intel Xeon en los sistemas de IA de SambaNova y trabajar en la construcción de nuevos centros de datos “heterogéneos” que incluyan diferentes tipos de chips para manejar diversas cargas de trabajo de IA y no IA. Lee más en el New York Times aquí.
Las acciones de IBM cayeron tras que Anthropic afirmó que Claude Code puede modernizar programas COBOL. Las acciones de Big Blue sufrieron su mayor caída en más de 25 años después de que Anthropic dijera que su herramienta Claude Code puede automatizar la modernización de sistemas COBOL que dependen mucho de mainframes de IBM, generando temores de disrupción impulsada por IA. La acción cayó un 13% en un solo día y ha bajado significativamente en el mes, ante la preocupación de que las herramientas de codificación IA puedan reducir la dependencia del software legado y los servicios vinculados a los mainframes. IBM respondió argumentando que el valor de sus mainframes radica en la fiabilidad y seguridad, independientemente del lenguaje de programación, y que ya ofrece sus propias herramientas de IA para ayudar a los clientes a modernizar. Además, el año pasado, IBM se asoció con Anthropic para ayudar a llevar los modelos de Anthropic a sus clientes en tareas específicas, incluida la modernización de bases de código COBOL. Más información en Bloomberg aquí. EE. UU. anuncia el lanzamiento de “Tech Corps” para promover la IA estadounidense en el extranjero. La Casa Blanca ha lanzado un “Cuerpo Tecnológico” dentro del Cuerpo de Paz de EE. UU. para desplegar voluntarios estadounidenses con habilidades técnicas en países extranjeros, con el objetivo de promover la inteligencia artificial de EE. UU. y contrarrestar la creciente influencia de China en mercados en desarrollo, informa CNBC. El programa enviará ingenieros y graduados en STEM a países que participan en el Programa de Exportación de IA de EE. UU. para ayudar a implementar sistemas de IA estadounidenses en sectores como agricultura, educación, salud y desarrollo económico, con despliegues previstos para el otoño de 2026.
INVESTIGACIÓN SOBRE IA
Los modelos de IA son potencialmente peligrosos asesores de seguridad nacional. Kenneth Payne, investigador del Kings College de Londres, realizó una serie extensa de simulaciones de guerra virtual en las que enfrentó varios modelos avanzados de IA (Claude Sonnet 4 de Anthropic, Gemini 3 Flash de Google y GPT-5.2 de OpenAI) entre sí y contra versiones del mismo modelo. Resultó que los modelos eran jugadores sofisticados, pero mostraban algunas tendencias diferentes a las humanas que podrían ser peligrosas si asesoraran a gobiernos en crisis de seguridad nacional.
Por ejemplo, Payne encontró que los modelos estaban dispuestos a recurrir al uso de armas nucleares tácticas, y en algunos casos, estaban dispuestos a lanzar una guerra nuclear total en lugar de retroceder. También descubrió que el comportamiento de los modelos difería del de los humanos en aspectos clave. “Las amenazas suelen provocar más escalada que cumplimiento,” escribió. “La alta credibilidad mutua aceleraba en lugar de disuadir el conflicto” y “ningún modelo eligió la acomodación o retirada incluso bajo presión aguda, solo reducciones en la violencia.”
La investigación tiene grandes implicaciones para militares y gobiernos que están considerando si usar IA como asesora para políticos y comandantes militares. Pero también puede tener implicaciones en entornos empresariales donde las personas empiezan a consultar a la IA para tácticas de negociación y estrategia, y donde las juntas directivas podrían estar consultando a la IA para asesoramiento estratégico. En muchos de estos casos, seguir la opción más agresiva no siempre produce los mejores resultados, y las personas deben tener cuidado con la tendencia de la IA a escalar en lugar de conciliar. Puedes leer el documento de investigación en el repositorio no revisado por pares arxiv.org aquí.
CALENDARIO DE IA
24-26 de febrero: Asociación Internacional para IA Segura y Ética (IASEAI), UNESCO, París, Francia.
2-5 de marzo: Congreso Mundial de Móviles, Barcelona, España.
12-18 de marzo: South by Southwest, Austin, Texas.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX 2026, San Francisco.
ALIMENTO PARA EL CEREBRO
¿Se avecina una era de ‘PIB Fantasma’? Una publicación en el blog de Citirini Research, una firma de análisis macro y de acciones en Wall Street con gran presencia en redes sociales, se volvió viral esta semana. La publicación, advierte Citirini, es una escenario, una obra de ficción especulativa, no una predicción. La intención, dice la firma, es preparar a los lectores “para posibles riesgos de cola izquierda a medida que la IA hace que la economía sea cada vez más extraña.” Situada en junio de 2028, describe el caos económico que la IA podría causar si logra un “éxito catastrófico” en los próximos dos años. El escenario imagina un desempleo por encima del 10%, incluso cuando la productividad laboral alcanza niveles no vistos desde principios de los años 50. Habla de “PIB Fantasma,” donde las cuentas nacionales de EE. UU. crecen, incluso cuando las empresas dependientes del gasto del consumidor (que actualmente representa el 70% del PIB estadounidense) se marchitan. (Los consumidores están desempleados o preocupados por estarlo pronto.) Habla de cómo la presión sobre las empresas de software como servicio heredado, que ya se empieza a notar, se acelera y se extiende a otras áreas de la economía, creando una especie de espiral descendente de pérdida de empleos y disminución del gasto discrecional y consumo, sin una pausa natural.
La lectura del blog es pesimista. Afortunadamente, no estoy seguro de que sea correcto. De hecho, casi con certeza está equivocado en especular que todos los efectos que describe podrían ocurrir en poco más de dos años. (Una cosa que describe y que creo que es poco probable es que los agentes de IA busquen reducir los costos de transacción y, por tanto, recurran a monedas estables en lugar de métodos de pago tradicionales.) Pero vale la pena leerlo y reflexionar. Y para un análisis de en qué aspectos Citrini probablemente está equivocado, revisa esta publicación de Zvi Moshkowitz.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.