Résultats de la recherche pour "OPENX"
Aujourd'hui
14:41

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI grok-imagine-image et grok-imagine-image-pro, ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.
Plus
XAI-2,23%
09:45

DeepSeek publie en open source TileKernels, une bibliothèque de noyaux GPU pour l’entraînement et l’inférence de grands modèles

Message de l'actualité Gate News, le 23 avril — DeepSeek a publié en open source TileKernels sous licence MIT, une bibliothèque de noyaux GPU écrite dans TileLang pour l’entraînement et l’inférence de grands modèles de langage. TileLang est un langage spécifique au domaine développé par l’équipe tile-ai pour exprimer des noyaux GPU à haute performance dans
Plus
02:22

Le cofondateur de Solana Toly déploie un programme immuable, détruit les clés d’administration et propose une prime de 5 SOL

Message de Gate News, 23 avril — Le cofondateur de Solana, Toly, a appelé à un « retour à un logiciel immuable en open source » et a exprimé une confiance plus grande que jamais dans la suppression des clés d’administration. Il a déployé un programme binaire immuable appelé percolator et a déposé environ 5 SOL dans son coffre, avec toutes les clés d’administration détruites ; Toly ne peut faire aucune modification du marché ou du programme
Plus
SOL-3,19%
18:52

Le open interest de Shiba Inu explose de 13,45% en 24 heures à mesure que l’activité sur les futures s’accélère

Le open interest de SHIB a augmenté de 13,45% à 69,79 M$ tandis que le prix a progressé d’environ 3% pour atteindre 0,000006231 $. Les flux vers les contrats à terme sont plus élevés ; les volumes ont fortement augmenté. Les indicateurs techniques montrent un support sur la moyenne mobile sur 50 jours, un RSI à 55 et un MACD haussier ; un mouvement au-delà de 0,000010 est possible. Résumé : Ce rapport passe en revue l’activité du marché SHIB sur Gate News au 22 avril. Le open interest de SHIB a augmenté de 13,45% à 69,79 millions de dollars, le prix étant en hausse d’environ 3% à 0,000006231 $. Les flux sur les contrats à terme ont dépassé les sorties et le volume total a augmenté, tandis que les données des acheteurs (takers) au comptant et sur les contrats à terme indiquaient des biais mitigés. D’un point de vue technique, SHIB a trouvé un support près de la moyenne mobile sur 50 jours, le RSI se situe à 55 et le MACD est passé en territoire positif, signalant une potentielle cassure et un éventuel rallye au-delà du niveau de 0,000010 $ après une cassure de canal confirmée.
Plus
SHIB-2,55%
BTC-1,55%
XRP-0,82%
15:31

OpenAI publie un modèle de filtre de confidentialité open source pour la détection et la suppression des PII

Résumé : Le filtre de confidentialité d’OpenAI est un modèle open source exécutable localement qui détecte et supprime les données personnelles (PII) dans le texte. Il prend en charge de vastes contextes, identifie de nombreuses catégories de PII et est conçu pour des flux de travail axés sur la confidentialité tels que la préparation des données, l’indexation, la journalisation et la modération. Le filtre de confidentialité d’OpenAI est un modèle open source exécuté localement (contexte de 128 000 jetons) qui détecte et supprime les PII dans le texte, couvrant les données de contact, financières et d’identifiants pour des flux de travail liés à la confidentialité.
Plus
12:05

Kimi K2.6 arrive en tête du benchmark de programmation OpenRouter, dépasse Claude et la série GPT

Kimi K2.6 arrive en tête du classement OpenRouter, surpassant Claude, GPT et ses concurrents open source, signalant des progrès en IA nationale et réduisant l’écart avec les leaders mondiaux. Résumé : Kimi.ai a annoncé que son dernier modèle, Kimi K2.6, s’est classé premier sur le tableau de bord de la programmation d’OpenRouter, menant les évaluations des développeurs. Les benchmarks indiquent que K2.6 offre des performances supérieures sur l’ensemble des tâches de programmation par rapport à Claude, aux modèles de la série GPT et à d’autres modèles open source, mettant en évidence des avancées en génération de code et en gestion des tâches de développement, et signalant la progression de l’IA nationale vers les leaders internationaux.
Plus
09:25

Hugging Face ouvre en open source ml-intern, un agent IA pour la recherche autonome en ML

Projet open source ml-intern, l’agent autonome de recherche en ML de Hugging Face qui lit des articles, organise des données, entraîne, évalue et itère à travers la science, la médecine et les mathématiques. Résumé : ml-intern de Hugging Face est un agent autonome de recherche en ML open source qui lit des articles, sélectionne et organise des jeux de données, s’entraîne sur des GPU locaux ou cloud, évalue les résultats et itère pour améliorer. Construit sur smolagents avec des interfaces CLI et web, il navigue entre arXiv / HF Papers, HF Hub et HF Jobs. Les démonstrations couvrent la science, la médecine et les mathématiques, montrant une automatisation de bout en bout et des gains de performance.
Plus
08:21

SK Telecom et Nvidia s’associent pour le modèle d’IA A.X K2 dans le cadre de l’initiative gouvernementale sud-coréenne

SK Telecom et Nvidia poussent A.X K2 dans le cadre de l’initiative coréenne de « Modèle fondation d’IA propriétaire », en passant de A.X K1 à une plateforme d’IA complète, open source, via le consortium Krafton-Rebellions, pour un usage académique et commercial. Résumé : L’article fait état du partenariat de SK Telecom avec Nvidia pour développer A.X K2 comme successeur de A.X K1 dans le cadre du programme soutenu par le gouvernement coréen. L’effort vise à créer une plateforme d’IA complète et open source via un consortium mené par Krafton-Rebellions, avec des recherches axées sur les modèles multimodaux et vision-langage et un accès ouvert aux modèles A.X pour le monde académique et l’industrie.
Plus
01:11

Moonshot AI publie un modèle open source Kimi K2.6 avec des workflows d’agents avancés

Message de Gate News, 22 avril — Moonshot AI a publié le 20 avril son modèle open source Kimi K2.6, introduisant de nouvelles capacités pour la programmation, la génération front-end et l’orchestration multi-agents. Le modèle est conçu pour prendre en charge des flux de travail d’entreprise complexes grâce à des fonctionnalités avancées de programmation d’agent et de recherche approfondie et de raisonnement
Plus