Alors que de plus en plus d’institutions financières déploient l’intelligence artificielle pour des fonctions clés telles que l’évaluation du crédit, un groupe de législateurs britanniques a exprimé des inquiétudes quant à la préparation du secteur face à un incident majeur lié à l’IA.
Les législateurs ont récemment conseillé à la Financial Conduct Authority et à la Banque d’Angleterre de mettre en place des tests de résistance axés sur l’IA qui pourraient aider les entreprises de services financiers à gérer d’éventuels problèmes liés à cette technologie.
Le comité a également appelé le Royaume-Uni à adopter une position plus proactive pour traiter ces risques. Par exemple, il a recommandé que la FCA publie des directives clarifiant comment les règles de protection des consommateurs s’appliquent à l’IA, ainsi que dans quelle mesure les responsables supérieurs des services financiers doivent comprendre les composants d’IA intégrés dans leurs systèmes.
Failles et Risques
Selon le rapport, ces mesures deviennent de plus en plus nécessaires compte tenu des risques importants posés par l’IA. Les défauts souvent présents dans cette technologie naissante pourraient conduire à des décisions de crédit inexactes, à une augmentation des risques de fraude et à la propagation de désinformation.
Le rapport a également souligné les risques de concentration liés aux grands modèles d’IA, principalement facilités par les principales entreprises technologiques américaines. Ces systèmes centralisés pourraient biaiser la prise de décision des consommateurs et favoriser un comportement de troupeau sur les marchés financiers.
De plus, les législateurs britanniques ont déclaré que l’émergence de l’IA agentique — et la course pour adopter le commerce agentique — a créé un point d’inflexion potentiel pour les institutions financières. Ce sentiment a été partagé par Experian, qui a noté que les commerçants et les institutions financières manquent actuellement d’outils pour différencier les agents d’IA légitimes des bots malveillants.
Le Dilemme Actuel
Malgré ces préoccupations, les avantages dynamiques de l’IA garantissent qu’elle restera une priorité pour les institutions financières.
Les données de FIS montrent que plus des trois quarts des dirigeants d’entreprise et de technologie pensent que l’IA a renforcé les capacités de détection de fraude et de gestion des risques de leur organisation. Environ la moitié des répondants ont également indiqué que leurs organisations prévoient d’accroître leurs investissements dans l’IA au cours des deux prochaines années.
Par ailleurs, un responsable de la Banque d’Angleterre a récemment souligné que le secteur financier britannique n’utilise pas pleinement l’analyse de données pour la détection de fraude. Cela met en évidence le dilemme central auquel sont confrontées de nombreuses institutions financières : les dirigeants doivent élaborer des stratégies qui maximisent les bénéfices de l’IA tout en atténuant ses risques inhérents.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les régulateurs britanniques expriment leurs préoccupations concernant le rôle de l'IA dans les services financiers
Alors que de plus en plus d’institutions financières déploient l’intelligence artificielle pour des fonctions clés telles que l’évaluation du crédit, un groupe de législateurs britanniques a exprimé des inquiétudes quant à la préparation du secteur face à un incident majeur lié à l’IA.
Les législateurs ont récemment conseillé à la Financial Conduct Authority et à la Banque d’Angleterre de mettre en place des tests de résistance axés sur l’IA qui pourraient aider les entreprises de services financiers à gérer d’éventuels problèmes liés à cette technologie.
Le comité a également appelé le Royaume-Uni à adopter une position plus proactive pour traiter ces risques. Par exemple, il a recommandé que la FCA publie des directives clarifiant comment les règles de protection des consommateurs s’appliquent à l’IA, ainsi que dans quelle mesure les responsables supérieurs des services financiers doivent comprendre les composants d’IA intégrés dans leurs systèmes.
Failles et Risques
Selon le rapport, ces mesures deviennent de plus en plus nécessaires compte tenu des risques importants posés par l’IA. Les défauts souvent présents dans cette technologie naissante pourraient conduire à des décisions de crédit inexactes, à une augmentation des risques de fraude et à la propagation de désinformation.
Le rapport a également souligné les risques de concentration liés aux grands modèles d’IA, principalement facilités par les principales entreprises technologiques américaines. Ces systèmes centralisés pourraient biaiser la prise de décision des consommateurs et favoriser un comportement de troupeau sur les marchés financiers.
De plus, les législateurs britanniques ont déclaré que l’émergence de l’IA agentique — et la course pour adopter le commerce agentique — a créé un point d’inflexion potentiel pour les institutions financières. Ce sentiment a été partagé par Experian, qui a noté que les commerçants et les institutions financières manquent actuellement d’outils pour différencier les agents d’IA légitimes des bots malveillants.
Le Dilemme Actuel
Malgré ces préoccupations, les avantages dynamiques de l’IA garantissent qu’elle restera une priorité pour les institutions financières.
Les données de FIS montrent que plus des trois quarts des dirigeants d’entreprise et de technologie pensent que l’IA a renforcé les capacités de détection de fraude et de gestion des risques de leur organisation. Environ la moitié des répondants ont également indiqué que leurs organisations prévoient d’accroître leurs investissements dans l’IA au cours des deux prochaines années.
Par ailleurs, un responsable de la Banque d’Angleterre a récemment souligné que le secteur financier britannique n’utilise pas pleinement l’analyse de données pour la détection de fraude. Cela met en évidence le dilemme central auquel sont confrontées de nombreuses institutions financières : les dirigeants doivent élaborer des stratégies qui maximisent les bénéfices de l’IA tout en atténuant ses risques inhérents.