Résultats de la recherche pour "LLM"
2026-03-17
13:08

Tether lance le cadre BitNet LoRA, permettant l'entraînement de grands modèles sur mobile

Gate News rapporte que le 17 mars, QVAC Fabric, filiale de Tether, a lancé le premier cadre LoRA multi-plateforme au monde destiné à Microsoft BitNet (LLM à un bit), réduisant considérablement les seuils de mémoire vidéo et de puissance de calcul pour l'entraînement des grands modèles. Le cadre prend en charge le microfinancement LoRA et l'accélération de l'inférence sur Intel, AMD, Apple Silicon M series ainsi que les GPU mobiles (incluant Adreno, Mali et Apple Bionic).
Plus
07:09

Le co-fondateur de Sentry remet en question le ralentissement du développement causé par les LLM, affirmant qu'OpenClaw génère trop de code pour pouvoir se sauver lui-même.

David Cramer, co-fondateur de Sentry, déclare que les grands modèles de langage n'ont pas amélioré la productivité, mais ont plutôt conduit à la génération de code complexe, ralentissant la vitesse de développement. Il remet en question l'approche de la génération automatique de code, estimant que la qualité de sortie est médiocre, en particulier sur le développement incrémental et la cohérence du style. D'après son expérience personnelle, il souligne que la construction de logiciels reste difficile, et que les changements au niveau psychologique ont affecté sa contribution.
Plus
11:02

L'Institut chinois de recherche sur l'information et la communication en collaboration avec des universités a découvert et corrigé la vulnérabilité critique d'injection de commandes OpenClaw

L'Institut de technologie de l'information de Chine (CAICT) et une équipe universitaire ont découvert une vulnérabilité d'injection de commande pilotée par LLM dans le module bash-tools du framework open source OpenClaw lors d'un audit. Les attaquants pourraient induire l'exécution de commandes pour exécuter du code à distance et voler des données. Un processus de divulgation de vulnérabilité a été lancé et des recommandations de correction ont été soumises.
Plus
09:32

Co-fondateur d'AMI Labs, Xie Saining : Les LLM sont dans une certaine mesure « anti-Bitter Lesson », le modèle mondial est l'avenir

Xie Saining a critiqué lors d'une interview la trajectoire actuelle du développement de l'IA dominée par les grands modèles de langage, estimant qu'elle limite l'apprentissage de l'IA sur le monde réel et soulignant les avantages des modèles du monde. Il estime que la création d'agents intelligents capables de survivre dans la réalité est plus difficile et a mentionné qu'AMII Labs se concentre sur la collecte de données réelles, avec des plans pour lancer à l'avenir des lunettes intelligentes IA et des robots.
Plus
06:07

Le sous-réseau Bittensor a terminé la pré-formation du LLM avec 72 milliards de paramètres, TAO a augmenté de 54,8% en deux semaines

Le sous-réseau Bittensor Templar a terminé le préentraînement du modèle de langage décentralisé Covenant-72B avec 72 milliards de paramètres le 10 mars. Le modèle a obtenu des résultats exceptionnels au test MMLU, surpassant plusieurs modèles de référence centralisés. Le projet a attiré la collaboration de plus de 70 nœuds, et tous les poids et points de contrôle ont été publiés sous la licence Apache. Suite à cette nouvelle, Bittensor et son jeton ont connu une augmentation généralisée.
Plus
TAO4,13%
08:37

OpenClaw publie la version v2026.3.8, avec l'ajout de la sauvegarde locale CLI, du mode silencieux de Talk et du mode contexte de recherche LLM de Brave

OpenClaw a publié la version v2026.3.8 le 8 mars, avec de nouvelles fonctionnalités telles que la sauvegarde de l'état local, la transcription automatique en mode Talk, et le mode LLM Context pour la recherche Web Brave, ainsi que la correction de plusieurs problèmes. Au total, 43 contributeurs ont participé au développement.
Plus
03:37

ETH Zurich a testé la capacité de consensus blockchain de l'agent IA : taux de réussite seulement 41,6%

L'équipe de recherche de l'École polytechnique fédérale de Zurich a testé la capacité de consensus byzantin de l'Agent LLM et a constaté que même en l'absence de nœuds malveillants, le taux de consensus efficace n'était que de 41,6 %. Avec l'augmentation du nombre de nœuds, la difficulté d'atteindre un consensus s'accroît, et la situation se détériore encore davantage avec l'ajout de nœuds malveillants. La conclusion de l'étude indique que l'Agent LLM actuel n'est pas encore fiable en matière de consensus fiable, et le déploiement décentralisé doit être abordé avec prudence.
Plus
ETH-3,04%
03:07

Andrej Karpathy a lancé le projet open-source autoresearch, permettant à l'IA de réaliser automatiquement cent expériences d'entraînement de LLM

Le fondateur d'Eureka Labs, Andrej Karpathy, a lancé le 8 mars le projet open source autoresearch, utilisant le mode « humain écrit Markdown, IA écrit du code ». Il permet aux développeurs de définir leurs axes de recherche via program.md, l'IA optimisant automatiquement le code. Environ 12 expériences peuvent être réalisées par heure, avec 83 expériences sur 15 ayant abouti à des améliorations efficaces. Ce projet, basé sur NVIDIA GPU et PyTorch, a été testé sur H100 et est conforme à la licence MIT.
Plus
06:54

La plateforme d'agents IA Clawnch s'associe à Bankr, qui deviendra le lanceur sous-jacent pour l'émission de leur jeton.

Clawnch et Bankr ont conclu un partenariat stratégique, Bankr devenant la plateforme sous-jacente pour Clawnch et l'émission de ses tokens. Par ailleurs, la passerelle LLM de Bankr sera une composante essentielle du nouveau projet OpenClawnch de Clawnch. Cette collaboration vise à renforcer l'infrastructure de Clawnch, avec une augmentation modérée des frais d'émission de projets.
Plus
03:10

Minara Skill v2 publié : la solution tout-en-un Web4.0 pour la finance numérique « l'âme » des agents IA

Minara a publié Minara Skill v2, améliorant les capacités financières numériques de l'Agent IA, prenant en charge la gestion multi-chaînes d'actifs, les dépôts par carte de crédit, etc., et réalisant des transactions sans frais de gas, réduisant ainsi la barrière à l'entrée. Par ailleurs, l'intégration d'un LLM local améliore la confidentialité des conversations et la prise de décision en matière de transactions.
Plus
USDC0,02%