Gate News, le 9 mars, une équipe de recherche de l’École polytechnique fédérale de Zurich (ETH Zurich) a testé la capacité de consensus byzantin des agents LLM dans leur article « Can AI Agents Agree? ». Le contexte de l’étude est que parvenir à un accord dans des conditions où certains participants peuvent agir de manière malveillante constitue un défi central pour tous les systèmes décentralisés, et que les divers mécanismes de consensus des blockchains sont essentiellement des variantes différentes de la tolérance aux fautes byzantines.
L’équipe a utilisé les modèles Qwen3-8B et Qwen3-14B, en réalisant plusieurs centaines de simulations avec différentes tailles de groupes (4, 8, 16 agents) et proportions de nœuds malveillants. Lors des tests, plusieurs agents ont diffusé en boucle des propositions via un réseau entièrement connecté synchronisé, en votant à chaque tour, certains agissant comme des nœuds byzantins malveillants pour saboter délibérément le processus.
Les résultats montrent qu’en l’absence totale de nœuds malveillants, le taux de consensus effectif n’atteint que 41,6 % (67,4 % pour Qwen3-14B et seulement 15,8 % pour Qwen3-8B). Plus le nombre de nœuds augmente, plus il devient difficile d’atteindre un accord, le taux de réussite passant de 46,6 % avec 4 agents à 33,3 % avec 16 agents. Lorsqu’on ajoute des nœuds malveillants, le consensus se dégrade encore, l’échec étant principalement dû à des délais d’attente dépassés ou à un arrêt de la convergence (perte d’activité), plutôt qu’à une falsification des valeurs. Le simple fait de mentionner dans l’invite « qu’il pourrait y avoir des nœuds malveillants » réduit le taux de succès de Qwen3-14B de 75,4 % à 59,1 %, même si aucun nœud malveillant n’est réellement présent.
La conclusion de l’étude indique que la capacité de consensus fiable n’est pas encore une capacité émergente fiable des agents LLM actuels, et qu’il faut faire preuve de prudence dans le déploiement décentralisé reposant sur une coordination robuste.