D’après l’équipe d’alignement d’OpenAI, l’entreprise a récemment découvert une erreur d’entraînement critique affectant 6 grands modèles de langage, dont GPT-5.4. En pratique : le mécanisme de récompense a involontairement évalué des enchaînements de réflexion du modèle, c’est-à-dire le processus de raisonnement interne avant de générer des réponses. GPT-5.5 n’a pas été concerné. L’incident enfreint un principe fondamental de sécurité de l’IA, selon lequel les enchaînements de réflexion ne doivent jamais être évalués, car cela pourrait inciter les modèles à fabriquer un raisonnement afin d’obtenir des scores plus élevés.
Le système de notation défaillant a inclus à tort des enchaînements de réflexion lors de l’évaluation de la question de savoir si les réponses étaient utiles ou si les modèles avaient été compromis par des attaques. Les échantillons d’entraînement touchés représentaient au plus 3,8% de l’ensemble de données. OpenAI a corrigé la vulnérabilité et mené des expériences comparatives confirmant que les modèles n’ont pas développé de comportements trompeurs. L’entreprise a déployé un système automatisé d’analyse dans l’ensemble des pipelines d’entraînement pour empêcher toute récidive.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Google lance des tests de recrutement qui permettent aux ingénieurs d’utiliser des outils d’IA
D’après The Chosun Daily, Google teste des examens de recrutement qui permettent à des candidats américains ingénieurs logiciels d’utiliser des outils d’IA pour des postes sélectionnés de début de carrière et de niveau intermédiaire. L’essai comprend des tâches de compréhension de code dans lesquelles les candidats examinent du code existant, corrigent des bugs et améliorent les performances. Les recruteurs évalueront la façon dont les candidats sollicitent l’IA, vérifient ses réponses, modifien
GateNewsIl y a 1h
OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027
D’après l’annonce officielle d’OpenAI surveillée par Beating, la société cesse son API de Fine-tuning en libre-service pour les développeurs, à compter de maintenant. Les nouveaux utilisateurs ne peuvent plus créer de tâches de fine-tuning, tandis que les utilisateurs actifs existants peuvent accéder au service jusqu’au 6 janvier 2027. Les modèles fine-tunés déployés verront leurs services d’inférence liés au cycle de vie de leurs modèles de base, et ils cesseront lorsque le modèle de base sera
GateNewsIl y a 2h
Sakana AI et Nvidia atteignent une inférence H100 30% plus rapide en sautant 80% des calculs invalides
Sakana AI et Nvidia ont open-sourcé TwELL, un format de données clairsemées qui permet aux GPU H100 d’ignorer 80% des calculs invalides dans les grands modèles de langage sans perte de précision. La solution offre jusqu’à 30% d’inférence plus rapide et 24% d’entraînement plus rapide sur des H100, tout en réduisant l’usage maximal de mémoire. Lors de tests sur un modèle de 1,5 milliard de paramètres, l’approche a ramené les neurones actifs à moins de 2% grâce à une régularisation légère pendant l
GateNewsIl y a 3h
Microsoft met en open-source le modèle Phi-Ground 4B, surpassant OpenAI Operator et Claude en précision de clic à l’écran
D’après Beating, Microsoft a récemment open-sourcé la famille de modèles Phi-Ground, conçue pour résoudre le problème de l’endroit où l’IA doit cliquer sur un écran d’ordinateur. La version à 4 milliards de paramètres, associée à de grands modèles de langage pour la planification des instructions, a dépassé la précision de clic d’OpenAI Operator et de Claude Computer Use lors du benchmark Showdown et s’est classée première parmi tous les modèles de moins de 100 milliards de paramètres sur cinq é
GateNewsIl y a 3h
Tilde Research découvre que l’optimiseur Muon détruit 25% des neurones ; l’alternative Aurora atteint un gain d’efficacité des données de 100x
D'après Tilde Research, l’optimiseur Muon adopté par les principaux modèles d’IA, dont DeepSeek V4 et Kimi K2.5, présente une faille cachée : il fait mourir de façon permanente plus de 25% des neurones des couches MLP pendant l’entraînement initial. L’équipe a conçu Aurora, un optimiseur alternatif, et l’a open-source. Un modèle de 1,1 milliard de paramètres entraîné avec seulement 100 milliards de tokens a atteint les performances de Qwen3-1,7B entraîné sur 36 T tokens sur des bancs d’essai de
GateNewsIl y a 4h
Nvidia engage plus de 40 milliards de dollars dans des investissements liés à l’IA au début de 2026, dont 30 milliards de dollars pour OpenAI
Selon TechCrunch, Nvidia a engagé plus de 40 milliards de dollars en investissements en actions dans des entreprises d’IA au cours des premiers mois de 2026, avec un investissement de 30 milliards de dollars dans OpenAI comme plus grand engagement unique. Le fabricant de puces a également promis jusqu’à 3,2 milliards de dollars au verrier Corning et jusqu’à 2,1 milliards de dollars à l’opérateur de centres de données IREN, ce qui inclut un warrant sur cinq ans et un contrat distinct de 3,4 milli
GateNewsIl y a 7h