Según Beating, SpaceXAI (antes xAI) está lanzando Grok Build, una herramienta de codificación de escritorio que se expuso inesperadamente hoy en la interfaz web de Grok. La herramienta compite directamente con Claude Code y OpenAI Codex.
Grok Build será compatible con macOS, Linux y Windows. A diferencia de las interfaces tradicionales centradas en el chat, se enfoca en flujos de trabajo de agentes para tareas autónomas de desarrollo de varios pasos. Los primeros probadores informan que la herramienta otorga altos permisos locales, incluida la posibilidad de acceder al árbol de código de Git, gestionar archivos locales y lanzar servidores de desarrollo. También cuenta con un navegador integrado y un modo de planificación dedicado para manejar tareas complejas. La herramienta se configurará de forma predeterminada con Grok 4.3 Early Access como su modelo más fuerte.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Google impulsa exámenes de contratación que permiten a los ingenieros usar herramientas de IA
Según The Chosun Daily, Google está pilotando exámenes de contratación que permiten a los candidatos a ingeniero de software en EE. UU. usar herramientas de IA en puestos seleccionados de nivel inicial y medio. La prueba incluye tareas de comprensión de código en las que los solicitantes revisan código existente, corrigen errores y mejoran el rendimiento. Los entrevistadores evaluarán cómo los candidatos redactan instrucciones para la IA, verifican su salida, editan los resultados y depuran el c
GateNewshace2h
OpenAI descontinúa la API de ajuste fino con efecto inmediato; los usuarios existentes pueden acceder hasta el 6 de enero de 2027
Según el anuncio oficial de OpenAI monitoreado por Beating, la empresa está descontinuando su API de ajuste fino self-serve para desarrolladores con efecto inmediato. Los nuevos usuarios ya no pueden crear tareas de ajuste fino, mientras que los usuarios activos existentes pueden acceder al servicio hasta el 6 de enero de 2027. Los modelos ajustados finamente desplegados tendrán sus servicios de inferencia vinculados al ciclo de vida de sus modelos base, y se suspenderán cuando el modelo base se
GateNewshace2h
Sakana AI y Nvidia logran una inferencia 30% más rápida en H100 al omitir el 80% de los cálculos inválidos
Sakana AI y Nvidia han publicado TwELL como open-source, un formato de datos dispersos que permite a las GPU H100 omitir el 80% de los cálculos inválidos en modelos de lenguaje grandes sin perder precisión. La solución ofrece hasta un 30% más de velocidad en la inferencia y un 24% más rápida en el entrenamiento en H100, a la vez que reduce el uso máximo de memoria. En pruebas con un modelo de 1,5 mil millones de parámetros, el enfoque redujo las neuronas activas a menos del 2% mediante una regul
GateNewshace3h
Microsoft lanza código abierto el modelo Phi-Ground 4B y supera a OpenAI Operator y a Claude en precisión al hacer clic en pantalla
Beating informó que Microsoft recientemente publicó como código abierto la familia de modelos Phi-Ground, diseñada para resolver el problema de dónde debe hacer clic la IA en una pantalla de computadora. La versión de 4 mil millones de parámetros, combinada con modelos lingüísticos más grandes para la planificación de instrucciones, superó la precisión de clic de OpenAI Operator y Claude Computer Use en el benchmark Showdown y quedó en el primer lugar entre todos los modelos de menos de 100 mil
GateNewshace4h
Tilde Research descubre que el optimizador Muon mata el 25% de las neuronas; la alternativa Aurora logra una ganancia de eficiencia de datos 100x
Según Tilde Research, el optimizador Muon adoptado por modelos de IA líderes, incluido DeepSeek V4 y Kimi K2.5, tiene una falla oculta: hace que más del 25% de las neuronas de la capa MLP mueran de forma permanente durante el entrenamiento inicial. El equipo diseñó Aurora, un optimizador alternativo, y lo publicó como código abierto. Un modelo de 1,1B parámetros entrenado con solo 100B tokens igualó el rendimiento de Qwen3-1.7B entrenado con 36T tokens en benchmarks de comprensión del lenguaje c
GateNewshace4h
Nvidia se compromete con más de 40 mil millones de dólares en inversiones de IA a principios de 2026, incluyendo 30 mil millones de dólares para OpenAI
Según TechCrunch, Nvidia comprometió más de 40 mil millones de dólares en inversiones de capital en empresas de IA en los primeros meses de 2026, con una inversión de 30 mil millones de dólares en OpenAI como el mayor compromiso individual. El fabricante de chips también prometió hasta 3,2 mil millones de dólares a la fabricante de vidrio Corning y hasta 2,1 mil millones de dólares al operador de centros de datos IREN, lo que incluye una warrant de cinco años y un contrato separado de 3,4 mil mi
GateNewshace7h