Роман Елошвілі — засновник і генеральний директор групи XData, компанії з розробки програмного забезпечення для B2B. Там він керує розвитком штучного інтелекту у банківській сфері, налагоджуючи відносини з інвесторами та сприяючи масштабуванню бізнесу. Також він є засновником ComplyControl — стартапу з регуляторних технологій (RegTech) у Великій Британії, що спеціалізується на передових технологічних рішеннях для банків.
Дізнайтеся про найкращі новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших
Банки та фінтех-компанії по всьому світу шукають способи використовувати штучний інтелект у різних сферах: для прискорення операцій, зниження витрат, покращення взаємодії з клієнтами та інше. І все ж, коли йдеться про відповідність вимогам — мабуть, найскладніший і найзатратніший у часі аспект фінансів — більшість компаній досі утримуються від активного впровадження.
Опитування, проведене на початку 2025 року, показало, що лише невелика частка компаній (менше 2%) повністю інтегрували штучний інтелект у свої робочі процеси. Більшість же все ще перебуває на початкових етапах досліджень і впровадження, якщо взагалі.
Тиск на компанії щодо дотримання регуляторних вимог залишається дуже високим і зростає. Тому чому ж відповідність так повільно впроваджує AI, хоча він міг би значно допомогти?
Давайте спробуємо з’ясувати.
Зір людського ока все ще важливий
Мабуть, перше і найголовніше, що потрібно пам’ятати — відповідність не зводиться лише до виконання чек-листів. Це про прийняття суджень у ситуаціях, що часто мають сіру зону. Світ фінансових рішень рідко буває чорно-білим. Регуляції різняться залежно від юрисдикції, а тлумачення цих правил — не завжди однозначне.
AI чудово справляється з обробкою великих обсягів даних і виявленням аномалій. Але, попри здатність позначати підозрілі транзакції за заздалегідь визначеними шаблонами, він не може чітко пояснити “чому” він зробив саме так. Що важливо, він погано розуміє нюанси. Людський офіцер з відповідності може визначити, коли поведінка клієнта, хоча й незвична, є безпечною. AI ж швидше підніме тривогу без контексту.
Саме тому керівники з відповідності вагаються передати цю відповідальність машині. Машини безумовно можуть допомагати, але більшість людей все ще більше довіряє здатності людини бачити ширшу картину і судити відповідно.
Ефективність проти регуляторних і репутаційних ризиків
Здатність AI аналізувати тисячі транзакцій у реальному часі — це те, чого не може досягти жодна команда з відповідності, працюючи вручну. Тому з точки зору ефективності, це безперечно потужний інструмент, що зменшує навантаження і дозволяє співробітникам зосередитися на більш стратегічних і нюансних завданнях.
Але відповідність — це не лише швидкість. Якщо AI зробить помилку у судженні, це може призвести до штрафів, шкоди репутації або регуляторного контролю. Усе це може бути дуже шкідливим — можливо, навіть руйнівним. Тому багато хто прагне уникнути таких ускладнень.
Більшість регуляторів також погоджуються, що у випадку з рішеннями на основі AI хтось має залишатися відповідальним. Якщо модель помилково заблокує легітимну транзакцію або пропустить шахрайську, відповідальність все одно лежить на компанії. І саме люди, відповідальні за відповідність, мають цю відповідальність нести.
Це породжує природну обережність: керівники з відповідності мають зважувати переваги швидшого моніторингу проти ризиків можливих регуляторних штрафів. І поки системи AI не стануть більш зрозумілими і прозорими, багато компаній й надалі будуть утримуватися від довірення їм автономних рішень.
Як відповідально впроваджувати AI
Дуже важливий урок із усього вищесказаного — те, що вагання керівників з відповідності не означають їхню антипатію до AI. Насправді багато з них оптимістично налаштовані щодо ролі AI у майбутньому. Головне — знайти правильний шлях.
На мою думку, найприроднішим і перспективним шляхом є впровадження гібридної моделі. Співпраця між людьми та AI, де штучний інтелект виконує важку роботу — сканує транзакції, позначає незвичайну активність або генерує звіти. А коли результати готові, люди можуть їх переглянути, інтерпретувати контекст рішень AI і прийняти остаточне рішення.
Щоб застосовувати таку модель, компанії повинні переконатися, що їх системи AI є пояснюваними. Відповідність — це не лише виявлення ризиків, а й доведення того, що рішення є справедливими. Саме тому на ринку потрібно більше інструментів AI, які можуть пояснювати свої результати простими словами.
Це не про “людина проти машини”
Реалістично, я не бачу, щоб AI робив посади офіцерів з відповідності зайвими. Скоріше, їхні ролі зміняться — від виконавців до менеджерів. Вони менше будуть самі виконувати перевірки і більше — перевіряти рішення AI, працюючи з сірою зоною, де машини ще не досконалі.
В основі відповідності — людська справа. І хоча AI може зробити команди швидшими і ефективнішими, він не може нести моральну і регуляторну відповідальність, що з цим пов’язана.
Тому я твердо переконаний, що майбутнє відповідності — це не “людина проти машини”, а “людина з машиною” — спільно працюючи для забезпечення безпеки і справедливості фінансових систем.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Дилема відповідності штучного інтелекту: довіра все ще належить людям
Роман Елошвілі — засновник і генеральний директор групи XData, компанії з розробки програмного забезпечення для B2B. Там він керує розвитком штучного інтелекту у банківській сфері, налагоджуючи відносини з інвесторами та сприяючи масштабуванню бізнесу. Також він є засновником ComplyControl — стартапу з регуляторних технологій (RegTech) у Великій Британії, що спеціалізується на передових технологічних рішеннях для банків.
Дізнайтеся про найкращі новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших
Банки та фінтех-компанії по всьому світу шукають способи використовувати штучний інтелект у різних сферах: для прискорення операцій, зниження витрат, покращення взаємодії з клієнтами та інше. І все ж, коли йдеться про відповідність вимогам — мабуть, найскладніший і найзатратніший у часі аспект фінансів — більшість компаній досі утримуються від активного впровадження.
Опитування, проведене на початку 2025 року, показало, що лише невелика частка компаній (менше 2%) повністю інтегрували штучний інтелект у свої робочі процеси. Більшість же все ще перебуває на початкових етапах досліджень і впровадження, якщо взагалі.
Тиск на компанії щодо дотримання регуляторних вимог залишається дуже високим і зростає. Тому чому ж відповідність так повільно впроваджує AI, хоча він міг би значно допомогти?
Давайте спробуємо з’ясувати.
Зір людського ока все ще важливий
Мабуть, перше і найголовніше, що потрібно пам’ятати — відповідність не зводиться лише до виконання чек-листів. Це про прийняття суджень у ситуаціях, що часто мають сіру зону. Світ фінансових рішень рідко буває чорно-білим. Регуляції різняться залежно від юрисдикції, а тлумачення цих правил — не завжди однозначне.
AI чудово справляється з обробкою великих обсягів даних і виявленням аномалій. Але, попри здатність позначати підозрілі транзакції за заздалегідь визначеними шаблонами, він не може чітко пояснити “чому” він зробив саме так. Що важливо, він погано розуміє нюанси. Людський офіцер з відповідності може визначити, коли поведінка клієнта, хоча й незвична, є безпечною. AI ж швидше підніме тривогу без контексту.
Саме тому керівники з відповідності вагаються передати цю відповідальність машині. Машини безумовно можуть допомагати, але більшість людей все ще більше довіряє здатності людини бачити ширшу картину і судити відповідно.
Ефективність проти регуляторних і репутаційних ризиків
Здатність AI аналізувати тисячі транзакцій у реальному часі — це те, чого не може досягти жодна команда з відповідності, працюючи вручну. Тому з точки зору ефективності, це безперечно потужний інструмент, що зменшує навантаження і дозволяє співробітникам зосередитися на більш стратегічних і нюансних завданнях.
Але відповідність — це не лише швидкість. Якщо AI зробить помилку у судженні, це може призвести до штрафів, шкоди репутації або регуляторного контролю. Усе це може бути дуже шкідливим — можливо, навіть руйнівним. Тому багато хто прагне уникнути таких ускладнень.
Більшість регуляторів також погоджуються, що у випадку з рішеннями на основі AI хтось має залишатися відповідальним. Якщо модель помилково заблокує легітимну транзакцію або пропустить шахрайську, відповідальність все одно лежить на компанії. І саме люди, відповідальні за відповідність, мають цю відповідальність нести.
Це породжує природну обережність: керівники з відповідності мають зважувати переваги швидшого моніторингу проти ризиків можливих регуляторних штрафів. І поки системи AI не стануть більш зрозумілими і прозорими, багато компаній й надалі будуть утримуватися від довірення їм автономних рішень.
Як відповідально впроваджувати AI
Дуже важливий урок із усього вищесказаного — те, що вагання керівників з відповідності не означають їхню антипатію до AI. Насправді багато з них оптимістично налаштовані щодо ролі AI у майбутньому. Головне — знайти правильний шлях.
На мою думку, найприроднішим і перспективним шляхом є впровадження гібридної моделі. Співпраця між людьми та AI, де штучний інтелект виконує важку роботу — сканує транзакції, позначає незвичайну активність або генерує звіти. А коли результати готові, люди можуть їх переглянути, інтерпретувати контекст рішень AI і прийняти остаточне рішення.
Щоб застосовувати таку модель, компанії повинні переконатися, що їх системи AI є пояснюваними. Відповідність — це не лише виявлення ризиків, а й доведення того, що рішення є справедливими. Саме тому на ринку потрібно більше інструментів AI, які можуть пояснювати свої результати простими словами.
Це не про “людина проти машини”
Реалістично, я не бачу, щоб AI робив посади офіцерів з відповідності зайвими. Скоріше, їхні ролі зміняться — від виконавців до менеджерів. Вони менше будуть самі виконувати перевірки і більше — перевіряти рішення AI, працюючи з сірою зоною, де машини ще не досконалі.
В основі відповідності — людська справа. І хоча AI може зробити команди швидшими і ефективнішими, він не може нести моральну і регуляторну відповідальність, що з цим пов’язана.
Тому я твердо переконаний, що майбутнє відповідності — це не “людина проти машини”, а “людина з машиною” — спільно працюючи для забезпечення безпеки і справедливості фінансових систем.