Anker dévoile sa première puce d’IA Compute-in-Memory Thus, le PDG promet un investissement illimité dans la technologie avancée

Message de Gate News, 23 avril — Anker Innovation, une marque mondiale leader d’électronique grand public, a dévoilé son premier circuit audio à IA Compute-in-Memory de réseau neuronal (CIM) baptisé Thus™ le 22 avril. Le PDG et fondateur Yang Meng a révélé les trois grandes initiatives technologiques de l’entreprise dans l’IA de périphérie : la puce Thus™, des modèles de langage à grande échelle côté périphérie, et une feuille de route d’intelligence incarnée en trois phases.

Yang Meng a indiqué que les dépenses de R&D d’Anker en 2025 ont atteint 2,893 milliards de yuans, soit une hausse de 37,2% d’une année sur l’autre. L’entreprise prévoit de maintenir une croissance de la R&D nettement supérieure à celle du chiffre d’affaires dans les années à venir, avec des investissements dans des domaines avancés « dont la limite supérieure est pratiquement inexistante ». La puce Thus™, conçue sur une technologie NOR Flash et prenant nativement en charge des modèles de 4 millions de paramètres, répond à l’inefficacité énergétique de l’architecture de von Neumann en redirigeant plus de 90% de la puissance auparavant gaspillée vers un calcul efficace. Lors de tests internes, Thus™ a atteint jusqu’à 150 fois des performances de pointe en IA supérieures à celles des puces d’écouteurs Bluetooth traditionnelles, permettant le déploiement de modèles à plusieurs millions de paramètres sur des oreillettes.

La puce fera ses débuts dans les écouteurs phares d’Anker et constitue le fondement d’une plateforme technologique de puces sur trois ans. En outre, Anker a présenté une feuille de route de robotique familiale en trois phases couvrant des (robots aspirateurs robotisés et tondeuses à gazon déjà en production de masse), des (robots de mobilité tridimensionnelle en phase de développement), et des (robots humanoïdes en recherche à un stade précoce). D’après le rapport annuel 2025 d’Anker, l’entreprise a généré 30,514 milliards de yuans de chiffre d’affaires, soit une croissance annuelle de 23,49%, et un bénéfice net de 2,545 milliards de yuans, en hausse de 20,37% d’une année sur l’autre. Anker a déposé une demande d’inscription sur le conseil principal de la Bourse de Hong Kong en décembre 2025, la direction confirmant un avancement normal.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Anthropic dévoile Claude Dreams : l’agent s’organise et gère sa mémoire entre les tâches, élimine les doublons et les contradictions

Anthropic a annoncé Dreams lors de la conférence Code with Claude : Claude Managed Agents peut automatiquement organiser la mémoire entre plusieurs sessions, éliminer les doublons et les contradictions, et mettre à jour les entrées obsolètes, pour produire une base de mémoire finalisée et vérifiable ; la limite d’entrée est de 100 sessions et de 4 096 caractères, exécution asynchrone, finalisation en quelques minutes à quelques dizaines de minutes, prise en charge de l’observation en streaming. L’aperçu de la recherche doit être demandé : pour l’instant, seuls claude-opus-4-7 et claude-sonnet-4-6 sont pris en charge, lancement officiel non déterminé.

ChainNewsAbmediaIl y a 2h

Anthropic contre SpaceX en puissance de calcul : acquisition de l’ensemble du cluster Colossus 1 avec 220 000 GPU, et Claude lève ses limites de débit

Anthropic annonce avoir conclu avec SpaceX un partenariat de puissance de calcul pour le centre de données Colossus 1, qui mobilisera plus de 220 000 GPU Nvidia, plus de 300 MW de capacité. Le déploiement complet devrait être achevé sous un mois afin d’être mis à disposition d’Anthropic, afin d’améliorer les performances et l’expérience de Claude et Code. En parallèle, la limite de consommation par tranche de 5 heures est assouplie pour Pro / Max / Team / Enterprise, les plafonds en période de pointe sont supprimés, et le taux de l’API Opus est augmenté. Les infrastructures en Asie et en Europe s’étendent simultanément ; à l’avenir, d’autres intentions existent, comme des « calculs d’IA en orbite », mais aucun accord n’a encore été conclu.

ChainNewsAbmediaIl y a 2h

Ingénieur chez Coinbase : les agents IA pourraient bouleverser le modèle de publicité web

Erik Reppel, ingénieur chez Coinbase, a déclaré que les agents d’intelligence artificielle pourraient miner fondamentalement le modèle économique d’Internet, dépendant de la publicité. D’après Reppel, l’économie du Web dépend en grande partie des revenus publicitaires générés par des utilisateurs humains, mais les agents d’IA contournent ce système

CryptoFrontierIl y a 3h

Anthropic double les limites de débit de Claude Code après avoir sécurisé une capacité de 300 MW grâce à un accord avec SpaceX

Selon Odaily, Anthropic a signé un accord avec SpaceX pour accéder à la capacité de calcul complète du centre de données Colossus 1, garantissant plus de 300 mégawatts de nouvelle capacité et plus de 220 000 GPU NVIDIA au cours du mois. À compter de maintenant, les limites de taux sur cinq heures de Claude Code pour Pro,

GateNewsIl y a 3h

OpenAI dévoile le protocole de réseau supercalculateur MRC ! En partenariat avec Nvidia, AMD et Microsoft pour créer l’infrastructure de Stargate

OpenAI publie le protocole MRC d’« AI supercomputer networking », en collaboration avec AMD, Microsoft, NVIDIA et d’autres, et en open source sur OCP. MRC découpe les données et les fait circuler par plusieurs chemins, évite les obstacles au niveau de la microseconde, réduit la congestion et maintient la synchronisation des GPU, afin de résoudre le goulot d’étranglement de transfert des grands clusters d’entraînement. Des bases comme Stargate à Abilene (Texas) ont déjà déployé des interfaces de 800 Gb/s et les ont mises en place pour des entraînements réels.

ChainNewsAbmediaIl y a 3h
Commentaire
0/400
Aucun commentaire