Message de Gate News, 18 avril — Le groupe Hyundai Motor de Corée du Sud se réorganise autour de l’IA et de la robotique tout en réduisant ses opérations traditionnelles. La filiale Hyundai Wia envisage de vendre sa division de défense à Hyundai Rotem, tandis que Hyundai Mobis arrête la production de pièces extérieures et augmente la fabrication de composants de robots tels que des actionneurs.
Hyundai Motor a présenté son robot humanoïde Atlas au CES 2026 à Las Vegas, construit par son unité de robotique américaine Boston Dynamics. D’après le président exécutif Chung Euisun, le robot pourrait entrer en usine d’ici 2028, avec une production annuelle attendue à 30 000 unités d’ici 2030. Boston Dynamics est actuellement valorisée à environ $20 billion, en hausse de plus de vingt fois depuis que Hyundai Motor Group a finalisé son acquisition en 2021.
Le groupe prévoit d’investir 34,3 milliards de dollars dans la robotique d’IA d’ici 2030, un montant nettement supérieur à l’investissement IA prévu par Tesla de 9,18 milliards de dollars. L’entreprise construit une chaîne d’approvisionnement complète en robotique via des filiales, dont Hyundai Mobis et Hyundai Glovis, une filiale logistique, afin de soutenir un modèle de robotique en tant que service (RaaS), dans lequel les clients paient des frais d’abonnement pour utiliser les robots de Hyundai.
Hyundai collabore avec Google DeepMind et NVIDIA pour intégrer des modèles d’IA avancés dans ses efforts de Physical AI, qui associent des logiciels à des machines opérant dans le monde réel. Le 16 avril, les actions de Hyundai Motor ont clôturé en hausse de 5,12 %, à 534 000 won ($360), tandis que Hyundai Wia a progressé de 6,09 %.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
DeepSeek V4 Pro sur Ollama Cloud : connectez Claude Code en un clic
Selon les tweets d’Ollama, DeepSeek V4 Pro a été publié le 24/04, et est désormais intégré au répertoire d’Ollama en mode cloud. Une seule commande suffit pour appeler des outils tels que Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro : 1,6T paramètres, 1M context, Mixture-of-Experts ; l’inférence via le cloud ne télécharge pas les poids sur votre appareil local. Pour l’utiliser localement, il faut récupérer les poids et les exécuter avec INT4/GGUF et plusieurs GPU. Les tests de vitesse initiaux ont été influencés par la charge du cloud : le débit normal est d’environ 30 tok/s, le pic à 1,1 tok/s. Il est recommandé de l’utiliser d’abord via le prototype cloud ; pour la production en série, effectuez ensuite votre propre inférence ou utilisez une API commerciale.
ChainNewsAbmediaIl y a 8m
DeepSeek réduit les prix de V4-Pro de 75 % et fait chuter les coûts de cache d’API à un dixième
Message de Gate News, 27 avril — DeepSeek a annoncé une réduction de 75 % sur son nouveau modèle V4-Pro pour les développeurs et a réduit les prix des caches de requêtes d’entrée sur l’ensemble de sa gamme d’API à un dixième des niveaux précédents.
Le modèle V4, publié le 25 avril en versions Pro et Flash, a été optimisé pour les processeurs Ascend de Huawei. DeepSeek a déclaré que V4-Pro surpasse les autres modèles open source sur des benchmarks de connaissances mondiales et se classe deuxième seulement derrière Gemini-Pro-3.1, le modèle propriétaire de Google. La famille V4 est conçue spécifiquement pour les agents IA qui gèrent des tâches complexes au-delà des capacités d’un chatbot.
Les coûts de l’API V4-Pro sont déjà inférieurs à ceux des principaux concurrents occidentaux : 3,48 $ pour un million de tokens de sortie, contre pour GPT-4.5 d’OpenAI. La tarification V4-Flash s’élève à 0,14 $ par million de tokens d’entrée et à 0,28 $ par million de tokens de sortie, ce qui pourrait permettre des applications rentables telles que l’examen de l’ensemble d’une base de code ou de documents réglementaires en une seule requête.
GateNewsIl y a 10m
Coachella se tourne vers l’IA DeepMind de Google pour réimaginer les concerts au-delà de la scène
Coachella s’est associé à Google DeepMind pour tester de nouveaux outils d’IA qui transforment la manière dont les performances de musique live sont créées et vécues.
Résumé
Coachella a testé des outils d’IA avec Google DeepMind pour transformer les performances live en environnements numériques interactifs.
Trois prototypes ont été construits,
CryptonewsIl y a 17m
Guo Mingyi : OpenAI veut fabriquer un téléphone avec des agents IA, MediaTek, Qualcomm et Luxshare Precision constituent la chaîne d’approvisionnement clé
Guo Mingqiң affirme que OpenAI coopère avec MediaTek, Qualcomm et Luxshare Precision pour développer des téléphones mobiles à agents IA, avec une production de masse prévue en 2028. Le nouveau téléphone mettra l’exécution des tâches au cœur du produit : l’agent IA comprendra les besoins et les exécutera, en combinant le calcul côté cloud et côté appareil, avec un accent sur la perception par les capteurs et la compréhension du contexte. Les listes des spécifications et de la chaîne d’approvisionnement devraient être finalisées en 2026–2027. Si le projet se concrétise, il pourrait, pour le segment haut de gamme, déclencher un nouveau cycle de renouvellement des téléphones ; Luxshare pourrait alors devenir l’un des principaux bénéficiaires.
ChainNewsAbmediaIl y a 26m
AIE : les dépenses d’infrastructure liées à l’IA ont déjà dépassé les investissements dans la production de pétrole et de gaz ; en 2026, elles devraient encore augmenter de 75 %.
Selon l’analyse et les données de marché publiées par l’Agence internationale de l’énergie (AIE) le 26 avril, les dépenses d’investissement (capex) totales des cinq plus grandes entreprises technologiques dépasseront 400 milliards de dollars en 2025. L’essentiel sera consacré à la construction d’infrastructures d’IA, dont l’ampleur dépasse désormais le volume annuel des investissements mondiaux dans la production de pétrole et de gaz naturel. L’AIE estime que ces dépenses d’investissement concernées pourraient encore augmenter de 75% en 2026.
MarketWhisperIl y a 58m
Le sénateur Bernie Sanders lance un avertissement concernant la menace existentielle de l’IA
Sanders a insisté sur le fait que, même si la plupart des scientifiques de l’IA reconnaissent la possibilité que l’IA échappe au contrôle et devienne un danger pour notre existence, aucune mesure majeure n’a été prise pour l’éviter. « Nous devons nous assurer que l’IA profite à l’humanité, et ne nous nuit pas », a-t-il déclaré.
Points clés :
Bernie Sanders
CoinpediaIl y a 1h