Résultats de la recherche pour "GPT"
Aujourd'hui
04:22

L'« moment GPT » de l'IA incarnée est-il proche ? Axis Robotics annonce la fin des tests et le lancement imminent sur la chaîne Base

> Source de l'article : Axis Axis Robotics restructure la diversité des données et les méthodes de production à grande échelle de l'intelligence incarnée en adoptant une stratégie Simulation-First. En 2025, plusieurs trajectoires technologiques du secteur robotique convergent rapidement : la modernisation commerciale de la chaîne d'approvisionnement du matériel incarné ouvre pour la première fois des possibilités réalistes de déploiement à grande échelle pour les prototypes autrefois coûteux ; les modèles Vision-Langage-Action (VLA) dotent les robots d'un « cerveau » capable de comprendre la sémantique, de raisonner et de planifier ; et la pyramide de données multi-niveaux, allant du préalable vidéo aux synthèses simulées, alimente continuellement l'évolution constante de l'intelligence incarnée. Cependant, le secteur fait toujours face à un goulot d'étranglement fondamental : les données. Comparée aux grands modèles de langage et à la conduite autonome, l'intelligence incarnée souffre toujours d'une pénurie massive de données lors de la phase de préentraînement.
Plus
01:39

L'outil de programmation IA Cursor publie le modèle Composer 2, dont la performance dépasse Opus 4.6, avec un prix réduit à 14% de la génération précédente

Cursor a lancé le troisième modèle de programmation générationnel Composer 2 le 20 mars, avec une baisse drastique des prix à 0,50 dollar par million de tokens en entrée et 2,50 dollars en sortie, tout en lançant une version rapide. Composer 2 surpasse la génération précédente dans plusieurs tests de référence, mais reste inférieur à GPT-5.4, les améliorations provenant principalement de la poursuite du pré-entraînement du modèle de base et de l'apprentissage par renforcement. Le modèle est réservé à un usage exclusif chez Cursor, tandis que sa maison mère Anysphere atteint une valorisation de 29,3 milliards de dollars.
Plus
00:02

OpenAI publie GPT-5.4 mini et nano, avec une tarification jusqu'à 4 fois supérieure à la génération précédente

OpenAI a lancé le 18 mars les nouveaux modèles GPT-5.4 mini et GPT-5.4 nano, ciblant les scénarios multimodaux et de programmation, avec une augmentation significative des tarifs. GPT-5.4 mini affiche des performances supérieures dans les tests de référence en programmation, prend en charge les contextes à grande échelle et les opérations polyfonctionnelles. De plus, les utilisateurs de la version gratuite de ChatGPT bénéficieront également de la nouvelle fonctionnalité de raisonnement.
Plus
15:32

Rakuten publie le grand modèle linguistique japonais Rakuten AI 3.0, suscitant une controverse en raison de soupçons d'architecture basée sur DeepSeek

Le groupe Rakuten a lancé le 17 mars un grand modèle de langage spécialisé en japonais, Rakuten AI 3.0, affirmant qu'il dépasse GPT-4o dans plusieurs tests de langue japonaise. Cependant, les internautes ont découvert que le modèle pourrait être développé sur la base de DeepSeek et ont remis en question son parti pris potentiel envers la Chine ainsi que l'authenticité de sa technologie de recherche et développement indépendante, suscitant des débats.
Plus
08:53

Rakuten publie le modèle Rakuten AI 3.0, les fichiers de configuration révèlent une architecture sous-jacente DeepSeek V3

Le groupe Rakuten a publié le 17 mars un modèle d'IA haute performance nommé Rakuten AI 3.0, doté de 671 milliards de paramètres, optimisé pour le japonais, et affirmant surpasser GPT-4o dans plusieurs benchmarks. Ce modèle est open source gratuit sous la licence Apache 2.0, basé sur un ajustement du modèle DeepSeek V3, avec le soutien en puissance de calcul du gouvernement japonais.
Plus
03:23

OpenClaw fondateur partage le classement de l'adaptabilité des modèles d'IA, avec le minimax-m2.1 et le kimi-k2.5 nationaux classés 2e et 3e.

Le fondateur d'OpenClaw, Peter Sternberg, a partagé les résultats des benchmarks de PinchBench, montrant que Gemini 3 Flash est en tête avec un taux de réussite de 95,1 % dans les tâches proxy, suivi par les modèles nationaux minimax-m2.1 et kimi-k2.5 en deuxième et troisième positions, avec des taux de réussite de 93,6 % et 93,4 %. D'autres modèles tels que Claude Sonnet 4.5 et GPT-4o ont des performances inférieures.
Plus
08:51

OpenAI lance le modèle GPT-5.4, prenant en charge environ 1 million de jetons de contexte et la capacité d'utilisation native de l'ordinateur

OpenAI a publié le modèle GPT-5.4 le 6 mars, améliorant la précision factuelle et l'efficacité, utilisant moins de tokens pour le traitement, avec des réponses plus rapides. Parallèlement, la capacité de réflexion pour la recherche en deep web et la conservation du contexte ont été renforcées, permettant aux utilisateurs d'interrompre et d'ajuster les instructions pendant la réponse. La fonction de guidage de cette version est désormais disponible sur Android et sur le web, la version iOS étant bientôt lancée.
Plus