Résultats de la recherche pour "GPT-4O"
Aujourd'hui
00:30

ZetaChain lance Anuma, une plateforme d’agrégation d’IA axée sur la confidentialité

Message de Gate News, 28 avril — L’équipe de ZetaChain a officiellement lancé Anuma, une plateforme d’agrégation d’IA axée sur la confidentialité qui permet aux utilisateurs d’accéder à plusieurs modèles d’IA — dont GPT, Claude, Gemini, Grok, DeepSeek, Kimi et Qwen — via une seule interface. Anuma propose un stockage local axé sur la confidentialité, une collaboration entre modèles, et un système de mémoire de contexte unifié entre différents modèles. L’interface web de la plateforme est désormais ouverte à l’utilisation.
Plus
06:31

DeepSeek réduit les prix de V4-Pro de 75 % et fait chuter les coûts de cache d’API à un dixième

Message de Gate News, 27 avril — DeepSeek a annoncé une réduction de 75 % sur son nouveau modèle V4-Pro pour les développeurs et a réduit les prix des caches de requêtes d’entrée sur l’ensemble de sa gamme d’API à un dixième des niveaux précédents. Le modèle V4, publié le 25 avril en versions Pro et Flash, a été optimisé pour les processeurs Ascend de Huawei. DeepSeek a déclaré que V4-Pro surpasse les autres modèles open source sur des benchmarks de connaissances mondiales et se classe deuxième seulement derrière Gemini-Pro-3.1, le modèle propriétaire de Google. La famille V4 est conçue spécifiquement pour les agents IA qui gèrent des tâches complexes au-delà des capacités d’un chatbot. Les coûts de l’API V4-Pro sont déjà inférieurs à ceux des principaux concurrents occidentaux : 3,48 $ pour un million de tokens de sortie, contre pour GPT-4.5 d’OpenAI. La tarification V4-Flash s’élève à 0,14 $ par million de tokens d’entrée et à 0,28 $ par million de tokens de sortie, ce qui pourrait permettre des applications rentables telles que l’examen de l’ensemble d’une base de code ou de documents réglementaires en une seule requête.
Plus
05:17

GPT-5.5 revient à la pointe du codage, mais OpenAI change de benchmarks après avoir perdu face à Opus 4.7

Message de Gate News, 27 avril — SemiAnalysis, un cabinet d’analyse de semi-conducteurs et d’IA, a publié un benchmark comparatif d’assistants de codage incluant GPT-5.5, Claude Opus 4.7 et DeepSeek V4. Le principal constat : GPT-5.5 marque le premier retour d’OpenAI à la pointe dans les modèles de codage en six mois, avec des ingénieurs de SemiAnalysis qui alternent désormais entre Codex et Claude Code après s’être auparavant appuyés presque exclusivement sur Claude. GPT-5.5 repose sur une nouvelle approche de préentraînement codée « Spud » et représente la première expansion de l’échelle de préentraînement d’OpenAI depuis GPT-4.5. Lors de tests pratiques, une division claire des tâches est apparue. Claude gère la planification de nouveaux projets et la configuration initiale, tandis que Codex excelle dans les corrections de bugs axées sur le raisonnement. Codex fait preuve d’une meilleure compréhension des structures de données et d’un raisonnement logique, mais a des difficultés à inférer l’intention utilisateur ambiguë. Sur une tâche à un seul tableau de bord, Claude a reproduit automatiquement la mise en page de la page de référence tout en fabriquant de grandes quantités de données, tandis que Codex a ignoré la mise en page mais a fourni des données nettement plus exactes. L’analyse révèle un détail de manipulation du benchmark : dans un billet de blog de février, OpenAI a exhorté l’industrie à adopter SWE-bench Pro comme nouveau standard pour les benchmarks de codage. Cependant, l’annonce de GPT-5.5 est passée à un nouveau benchmark appelé « Expert-SWE ». La raison, dissimulée dans les petits caractères, est que GPT-5.5 a été dépassé par Opus 4.7 sur SWE-bench Pro et a chuté de manière significative par rapport à Mythos non publié de l’Anthropic 77.8%. Concernant Opus 4.7, Anthropic a publié une analyse post-mortem une semaine après la sortie, reconnaissant trois bugs dans Claude Code qui ont persisté pendant plusieurs semaines de mars à avril, affectant près de tous les utilisateurs. Plusieurs ingénieurs avaient déjà signalé une dégradation des performances dans la version 4.6, mais ils avaient été écartés en tant qu’observations subjectives. De plus, le nouveau tokenizer d’Opus 4.7 augmente l’utilisation de tokens jusqu’à 35 %, qu’Anthropic a admis ouvertement — ce qui revient effectivement à une hausse de prix cachée. DeepSeek V4 a été évalué comme « tenant le rythme avec la frontière mais sans la mener », se positionnant comme l’alternative la moins coûteuse parmi les modèles à code source fermé. L’analyse a également noté que « Claude continue de surpasser DeepSeek V4 Pro sur des tâches d’écriture chinoises à haute difficulté », en commentant que « Claude a gagné contre le modèle chinois dans sa propre langue. » L’article présente un concept clé : le prix des modèles doit être évalué par « coût par tâche » plutôt que par « coût par token ». Le prix de GPT-5.5 est le double de celui de GPT-5.4 input $5, output par million de tokens, mais il accomplit les mêmes tâches en utilisant moins de tokens, ce qui ne rend pas nécessairement le coût réel plus élevé. Les données initiales de SemiAnalysis montrent que le ratio input-to-output de Codex est de 80:1, inférieur à celui de Claude Code à 100:1.
Plus
02:06

Telegram lance un outil de création de bots IA sans code

Message de Gate News, 27 avril — Telegram a lancé un outil de création de bots IA sans code qui permet aux utilisateurs de créer et de personnaliser des chatbots sans connaissances en programmation. Les utilisateurs peuvent interagir avec le bot LobsterFather afin d’obtenir une clé API, puis l’intégrer à des plateformes telles que Telewer, GPTBots ou Lazy AI pour configurer le comportement et les fonctionnalités du bot via des options en point-and-click. L’outil prend en charge plusieurs modèles IA, notamment GPT et Llama. Les utilisateurs peuvent choisir le modèle de leur choix et personnaliser le style de conversation et la fonctionnalité du bot. La plateforme permet de créer un Master Bot capable de gérer et de distribuer des tâches à des sous-bots, ce qui le rend adapté au traitement de plusieurs groupes de chat ou de scénarios de demandes clients. La fonctionnalité s’intègre à Telegram Business, permettant aux bots d’agir comme des assistants autonomes. Les bots peuvent accueillir les nouveaux membres 24/7, filtrer les messages indésirables et répondre aux questions fréquemment posées, aidant les communautés à rester organisées et réactives. Telegram a souligné que les utilisateurs doivent être conscients des risques de sécurité des données de tiers lors de l’utilisation de ces intégrations, car les données du bot peuvent être traitées par des plateformes externes.
Plus
03:33

OpenAI fusionne Codex dans le modèle principal à partir de GPT-5.4, met fin à la ligne de codage distincte

Message de Gate News, 26 avril — Le responsable de l’expérience développeur d’OpenAI, Romain Huet, a révélé dans une déclaration récente sur X que Codex, la ligne de modèles de codage spécialisés maintenue de manière indépendante par l’entreprise, a été fusionnée avec le modèle principal à partir de GPT-5.4 et ne recevra plus de mises à jour distinctes
Plus
12:31

DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI

Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts.
Plus
03:11

Nvidia déploie l’agent IA Codex d’OpenAI auprès de l’ensemble de son personnel sur l’infrastructure Blackwell

Message de Gate News, 25 avril — Nvidia a déployé Codex d’OpenAI, un agent IA alimenté par GPT-5.5, auprès de l’ensemble de son personnel après un essai concluant avec environ 10 000 employés, d’après des communications internes du PDG Jensen Huang et du PDG d’OpenAI Sam Altman. Codex est conçu pour aider à
Plus
01:21

OpenClaw v2026.4.23 Ajoute une prise en charge directe de l’OAuth pour gpt-image-2, et introduit le mode de contexte dérivé pour les sous-agents

Message de Gate News, 25 avril — OpenClaw, un framework d’agents IA open source, a publié la version v2026.4.23 le 23 avril, avec des mises à jour dans la génération d’images, les mécanismes de sous-agents et le renforcement de la sécurité. Les améliorations de génération d’images permettent d’appeler gpt-image-2 directement via Codex OAuth, sans
Plus
01:46

OpenAI lance GPT-5.5, conçu pour les tâches d’agent et les flux de travail complexes

Message de Gate News, 24 avril — OpenAI a officiellement publié GPT-5.5, un modèle d’IA de nouvelle génération conçu pour gérer des objectifs complexes, l’intégration d’outils, l’auto-vérification et l’exécution de tâches en plusieurs étapes. Le modèle excelle dans l’écriture et le débogage de code, la recherche en ligne, l’analyse de données, la création de documents
Plus
04:54

Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût

Perplexity utilise la SFT suivie par le RL avec des modèles Qwen3.5, en s’appuyant sur un ensemble de données QA multi-étapes et des contrôles par grille d’évaluation pour améliorer la précision et l’efficacité de la recherche, en atteignant des performances FRAMES de niveau supérieur. Résumé : le flux de travail de post-formation de Perplexity pour les agents de recherche web combine un apprentissage supervisé par fine-tuning (SFT) afin de garantir le respect des instructions et la cohérence linguistique avec un apprentissage par renforcement en ligne (RL) via l’algorithme GRPO. La phase RL exploite un jeu de données propriétaire vérifiable de questions-réponses multi-étapes et des données conversationnelles basées sur des grilles d’évaluation pour empêcher la dérive de la SFT, avec un filtrage des récompenses et des pénalités d’efficacité au sein des groupes. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances FRAMES, avec 57,3 % d’exactitude avec un seul appel d’outil et 73,9 % avec quatre appels, à 0,02 $ par requête, surpassant GPT-5.4 et Claude Sonnet 4.6 sur ces métriques. La tarification est basée sur l’API et exclut la mise en cache.
Plus