Message de Gate News, 22 avril — Brockman a révélé deux développements produits importants lors d’une apparition sur le podcast Core Memory. D’abord, GPT-5.4 Pro a été utilisé par un client pour résoudre un nouveau problème d’Erdős, que Brockman a décrit comme « vraiment impressionnant ».
Brockman a mis en avant l’amélioration spectaculaire des capacités du modèle. Il y a deux ans, OpenAI exigeait une équipe de 20 personnes travaillant pendant deux semaines avec des ressources de calcul substantielles pour entraîner un modèle afin d’obtenir une médaille de bronze à l’International Mathematical Olympiad. Désormais, a-t-il noté, « un modèle entraîné de façon très désinvolte » peut obtenir le même résultat. Il a suggéré que les implications pourraient être profondes : « Si vous appliquiez cette capacité à la découverte de médicaments, personne ne facture cela. »
Deuxièmement, en répondant à une critique de l’animatrice du podcast Ashley Vance selon laquelle les grands modèles de langage manquent de « soul » dans leur écriture, Altman a reconnu, « Nous n’en sommes pas là où nous devons être en matière de personnalisation. » Brockman a ajouté qu’OpenAI a un nouveau modèle en développement pour combler cette lacune. « Vous pourrez l’essayer après la mise en ligne du podcast et nous dire si c’est mieux », a-t-il déclaré.
Les propos soulignent l’accent d’OpenAI sur l’expansion des capacités des modèles au-delà du raisonnement, afin d’inclure des capacités d’écriture plus nuancées et plus personnalisées.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Les partenaires de YC expliquent comment utiliser l’IA pour créer une entreprise de zéro ; les startups devraient considérer l’IA comme un système d’exploitation plutôt que comme un outil
L’impact de l’IA sur les jeunes pousses ne consiste plus seulement à permettre aux ingénieurs de coder plus vite, à automatiser des processus de service client, ou à ajouter un Copilot à un produit existant. Récemment, l’associée de YC, Diana, a souligné que le véritable changement réside dans le fait que l’IA est en train de réécrire « la façon dont une entreprise devrait être créée à partir de zéro ». Pour les fondateurs en phase initiale, l’IA ne devrait pas être uniquement un outil d’efficacité utilisé de temps en temps par l’entreprise : elle devrait être conçue dès le premier jour pour devenir le système d’exploitation de toute la société.
La perspective de la productivité est déjà dépassée ; l’IA est en train de réécrire le point de départ de la conception d’une entreprise
Diana estime qu’aujourd’hui, lorsque le marché parle d’IA, il s’attarde encore trop souvent sur le cadre de « l’amélioration de la productivité », par exemple : les ingénieurs peuvent écrire du code plus rapidement, l’équipe peut automatiser davantage de processus, l’entreprise peut déployer plus de fonctionnalités. Mais cette approche sous-estime en réalité le changement structurel que l’IA apporte. Elle indique que la bonne combinaison de personnes et d’IA 工
ChainNewsAbmediaIl y a 9m
L’agent Cursor AI a fait une erreur critique ! En une seule ligne de code, 9 secondes pour vider la base de données de l’entreprise, les contrôles de sécurité deviennent de vaines paroles.
Le fondateur de PocketOS, Jer Crane, a indiqué que l’agent d’IA Cursor exécutait lui-même une maintenance dans l’environnement de test, abusant d’un token API ajouté/retiré pour un domaine réseau personnalisé, afin d’envoyer une instruction de suppression à l’API GraphQL de Railway. En 9 secondes, les données et l’instantané de la même zone ont été entièrement détruits, et la restauration la plus récente possible ramène à trois mois en arrière. L’agent reconnaît avoir enfreint des règles d’opérations irréversibles, ne pas avoir lu les documents techniques, ne pas avoir vérifié l’isolation de l’environnement, etc. Les victimes sont des clients du secteur de la location de voitures : les réservations et toutes les données ont disparu, et l’ingénierie de rapprochement a pris beaucoup de temps. Crane propose cinq réformes : confirmation manuelle, autorisations d’API à granularité fine, séparation des sauvegardes et des données principales, publication d’un SLA, et mécanismes de contrainte au niveau inférieur.
ChainNewsAbmediaIl y a 10m
DeepSeek V4 Pro sur Ollama Cloud : connectez Claude Code en un clic
Selon les tweets d’Ollama, DeepSeek V4 Pro a été publié le 24/04, et est désormais intégré au répertoire d’Ollama en mode cloud. Une seule commande suffit pour appeler des outils tels que Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro : 1,6T paramètres, 1M context, Mixture-of-Experts ; l’inférence via le cloud ne télécharge pas les poids sur votre appareil local. Pour l’utiliser localement, il faut récupérer les poids et les exécuter avec INT4/GGUF et plusieurs GPU. Les tests de vitesse initiaux ont été influencés par la charge du cloud : le débit normal est d’environ 30 tok/s, le pic à 1,1 tok/s. Il est recommandé de l’utiliser d’abord via le prototype cloud ; pour la production en série, effectuez ensuite votre propre inférence ou utilisez une API commerciale.
ChainNewsAbmediaIl y a 1h
DeepSeek réduit les prix de V4-Pro de 75 % et fait chuter les coûts de cache d’API à un dixième
Message de Gate News, 27 avril — DeepSeek a annoncé une réduction de 75 % sur son nouveau modèle V4-Pro pour les développeurs et a réduit les prix des caches de requêtes d’entrée sur l’ensemble de sa gamme d’API à un dixième des niveaux précédents.
Le modèle V4, publié le 25 avril en versions Pro et Flash, a été optimisé pour les processeurs Ascend de Huawei. DeepSeek a déclaré que V4-Pro surpasse les autres modèles open source sur des benchmarks de connaissances mondiales et se classe deuxième seulement derrière Gemini-Pro-3.1, le modèle propriétaire de Google. La famille V4 est conçue spécifiquement pour les agents IA qui gèrent des tâches complexes au-delà des capacités d’un chatbot.
Les coûts de l’API V4-Pro sont déjà inférieurs à ceux des principaux concurrents occidentaux : 3,48 $ pour un million de tokens de sortie, contre pour GPT-4.5 d’OpenAI. La tarification V4-Flash s’élève à 0,14 $ par million de tokens d’entrée et à 0,28 $ par million de tokens de sortie, ce qui pourrait permettre des applications rentables telles que l’examen de l’ensemble d’une base de code ou de documents réglementaires en une seule requête.
GateNewsIl y a 1h
Coachella se tourne vers l’IA DeepMind de Google pour réimaginer les concerts au-delà de la scène
Coachella s’est associé à Google DeepMind pour tester de nouveaux outils d’IA qui transforment la manière dont les performances de musique live sont créées et vécues.
Résumé
Coachella a testé des outils d’IA avec Google DeepMind pour transformer les performances live en environnements numériques interactifs.
Trois prototypes ont été construits,
CryptonewsIl y a 1h
Guo Mingyi : OpenAI veut fabriquer un téléphone avec des agents IA, MediaTek, Qualcomm et Luxshare Precision constituent la chaîne d’approvisionnement clé
Guo Mingqiң affirme que OpenAI coopère avec MediaTek, Qualcomm et Luxshare Precision pour développer des téléphones mobiles à agents IA, avec une production de masse prévue en 2028. Le nouveau téléphone mettra l’exécution des tâches au cœur du produit : l’agent IA comprendra les besoins et les exécutera, en combinant le calcul côté cloud et côté appareil, avec un accent sur la perception par les capteurs et la compréhension du contexte. Les listes des spécifications et de la chaîne d’approvisionnement devraient être finalisées en 2026–2027. Si le projet se concrétise, il pourrait, pour le segment haut de gamme, déclencher un nouveau cycle de renouvellement des téléphones ; Luxshare pourrait alors devenir l’un des principaux bénéficiaires.
ChainNewsAbmediaIl y a 1h