PANews 20 février – Selon un rapport de Decrypt, des chercheurs de plusieurs universités et institutions de recherche à travers le monde ont publié dans « Science » un avertissement selon lequel les futures « actions d’influence » en ligne évolueront des réseaux de bots ou zombies facilement identifiables vers des « essaims » composés d’un grand nombre d’agents IA autonomes, capables de manipuler l’opinion publique avec peu d’intervention humaine. L’étude indique que ces groupes d’IA peuvent imiter un comportement humain, s’adapter à travers différents comptes et plateformes, et maintenir en permanence une narration spécifique sur une longue période, rendant difficile leur détection par les systèmes de contrôle et de modération actuels, principalement conçus pour repérer le contenu indésirable ou les violations ponctuelles. Les chercheurs soulignent que les plateformes présentent actuellement des lacunes évidentes dans la vérification d’identité, la surveillance de l’abus de comptes, ainsi que dans la transparence et l’audit externe des comportements anormaux collaboratifs, rendant la seule modération de contenu insuffisante pour constituer une défense efficace.