Чому головні комп’ютери все ще мають значення в цифрову еру банкінгу – інтерв’ю з Дженніфер Нельсон

Дженніфер Нельсон — генеральний директор izzi Software.


Відкрийте для себе найважливіші новини та події у фінтехі!

Підписуйтеся на розсилку FinTech Weekly

Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній


У галузі, одержимій новітніми технологіями, легко забути, що деякі з найміцніших опор фінансової інфраструктури існують десятиліттями. Хоча інновації у фінтеху часто подаються як гонка до майбутнього, основа глобального банкінгу тихо залишається закріпленою у системах, які багато неправильно вважають застарілими: головних комп’ютерах.

Це не просто питання ностальгії або корпоративної інерції. Головні комп’ютери досі обробляють більшу частину світових фінансових транзакцій, забезпечуючи надійність і масштаб, яких не досягають багато нових платформ. Їх здатність обробляти величезні обсяги даних у реальному часі без компромісів у безпеці зробила їх незамінними у фінансовій системі, яка залежить і від швидкості, і від довіри.

Проте, незважаючи на їхню критичну роль, головні комп’ютери часто неправильно розуміють. У сучасних умовах, коли “хмара-перший” — стандартна стратегія, здається контрінтуїтивним захищати старі технології. Але називати головний комп’ютер застарілою системою — це спрощення набагато складнішої правди. Щоб зрозуміти чому, потрібно розглянути баланс між спадковими системами та сучасним прагненням до гібридної інфраструктури.

Обґрунтовані кроки до модернізації з обережністю

Фінансові установи під постійним тиском модернізуватися. Інвестори, клієнти та регулятори очікують безшовних цифрових сервісів, посиленої безпеки та ще швидшої роботи. Для багатьох керівників спокуса — активно шукати зміни — позбавитися старих систем і повністю перейти у хмару.

Але модернізація — це не просто технічний проект. Це стратегічна ініціатива, яка несе ризики, якщо її робити поспіхом. Дані, які десятиліттями зберігалися безпечно у середовищі головного комп’ютера, стають вразливими при їхньому перенесенні. Оптимізовані для головного комп’ютера додатки можуть зазнати труднощів при міграції, що призводить до дорогих затримок. Ці ризики — не лише гіпотетичні — вони загрожують щоденним операціям, відповідності регуляторним вимогам і навіть довірі споживачів.

Висновок простий: справжня модернізація — це не знищення старого заради нового. Це інтеграція сильних сторін, обережне поетапне оновлення і забезпечення того, щоб наступний крок не послабив вже працююче.

Розрив у навичках із серйозними наслідками

Технології розвиваються швидше, ніж зростає кількість фахівців, здатних їх підтримувати. Це особливо помітно у сфері головних комп’ютерів. Багато років банки та фінансові установи покладалися на команду інженерів із глибокими знаннями систем IBM Z та суміжних платформ. З виходом на пенсію багатьох з них, нове покоління ще не повністю замінило їхні навички.

Це створює серйозну проблему. Недостатня кількість фахівців підвищує ризик дорогих помилок, навіть якщо захисти на місці. Надійність головних комп’ютерів не може повністю компенсувати людський фактор. Поки не буде навчено та наставлено нових інженерів, банки стикнуться з вразливостями не через технології, а через звуження кола фахівців, які знають, як їх безпечно використовувати.

Безпека — це все ще про людей

Коли йдеться про кібербезпеку, багато уваги приділяється інструментам і захистам. Але знову й знову справжні слабкі місця — людський фактор. У світі головних комп’ютерів це часто зводиться до того, як надаються, керуються та відкликаються дозволи.

Розробники, які не повністю розуміють наслідки підвищених дозволів, можуть залишити двері відкритими, не зловмисно, а через неповне навчання або зручність. Компанії, які не оновлюють доступ при зміні ролей співробітників, ризикують розкривати чутливі дані без потреби. Навіть за наявності сучасних технологій основи безпеки залишаються важливими — і їх часто ігнорують.

Знайомство з Дженніфер Нельсон

Щоб поставити ці виклики та можливості у контекст, ми звернулися до Дженніфер Нельсон, генерального директора Izzi Software. Нельсон побудувала свою кар’єру навколо систем головних комп’ютерів, провівши 15 років у Rocket Software та п’ять — у BMC, а потім розширила свою перспективу через керівні інженерні ролі поза екосистемою IBM Z. У 2024 році вона заснувала Izzi Software — компанію, яка зосереджена на придбанні та розвитку бізнесів, побудованих на платформах IBM Z та IBM Power.

Її погляд — поєднання традиційної інженерії головних комп’ютерів і сучасного керівництва програмним забезпеченням — робить її рідкісним голосом у сучасних дискусіях про стратегію технологій у фінансових послугах.

Насолоджуйтеся інтерв’ю!


1. Оскільки фінтех мчить до хмарних рішень у всьому, ви стверджуєте, що головний комп’ютер залишається критично важливим для стабільності глобального банкінгу. Що, на вашу думку, найбільше неправильно розуміють інноватори щодо ролі старих систем сьогодні?

Перше — вони називають головний комп’ютер застарілою системою; що, мовляв, оскільки її запустили понад 60 років тому, вона нібито застаріла. Це як називати операційну систему Windows застарілою платформою. Це не відповідає дійсності. Головні комп’ютери сьогодні більш актуальні, ніж коли їх вперше створювали.

Усі прагнуть отримати дані зі швидкістю світла. Вони хочуть, щоб дані повернулися одразу після натискання кнопки, незалежно від того, де вони зберігаються. І це цілком логічно, адже кінцевий користувач не повинен знати і не повинен знати складнощів запиту, наприклад, де саме зберігаються дані. Але тільки головний комп’ютер може забезпечити таку продуктивність і безпеку у гібридному середовищі.

Головні комп’ютери можуть приймати дані будь-де, аналізувати їх і повертати з рекомендаціями швидше та краще за будь-яку іншу платформу. Покажіть мені іншу систему, яка може збирати дані з усього глобального мережевого простору, аналізувати їх у реальному часі, виявляти аномалії і відправляти назад.

Хто краще знає свої дані — той і перемагає, бо дані — так само цінні, як і грошовий капітал. Коли інноватори називають головний комп’ютер застарілою системою, вони ігнорують їхню швидкість і потужність, а також здатність обробляти величезні обсяги даних у реальному часі для виявлення ризиків.

Люди вважають, що хмара змінила гру і є сучасною, а головні комп’ютери — застарілими. Концепція хмарних обчислень у мережі справді сучасна і революційна для багатьох. Але якщо ви знайомі з технологією головних комп’ютерів, ви помітите, що вона має багато спільного з хмарою. Наприклад, коли ви входите у головний комп’ютер, ви входите у TSO, що означає “time sharing option”. У вас є власна сесія TSO або еквівалент у Microsoft Teams.

Ви всі використовуєте один і той самий процесор головного комп’ютера. Але коли ви не виконуєте програму або пакетне завдання, потужність автоматично надається тим, хто її потребує. Ви також входите у логічний розподіл (LPAR), з виділеним сховищем, безпекою та приватністю. Користувачі на одному LPAR не можуть отримати доступ до даних на іншому, якщо це не налаштовано спеціально. Це і є суть хмари: ділитися ресурсами, коли вони не використовуються, і захищати дані, що належать вашій інстанції. Але ці концепції використовуються у головних комп’ютерах вже багато років.

2. Гібридна інфраструктура — поєднання головних комп’ютерів із новими хмарними шарами — стає нормою. З вашого досвіду, які реальні ризики виникають, коли організації намагаються модернізуватися занадто швидко або поверхнево?

З кількох ризиків я можу виділити два.

Перший — ризик витоку даних. Дані на головному комп’ютері — одні з найзахищеніших. Коли ви виводите їх із системи або робите доступними для сторонніх, існує ризик порушення конфіденційності та регуляторних вимог. Хто дивиться на ці дані? Куди вони йдуть, коли залишають головний комп’ютер?

Другий — ризик неправильного налаштування додатків для роботи у гібридному середовищі. Оптимізовані для головного комп’ютера додатки можуть працювати неефективно на інших серверах. Це може спричинити затримки і знизити продуктивність.

3. Ви піднімали питання про розрив у навичках у сфері головних комп’ютерів. Наскільки серйозний ризик для інституцій, коли менше інженерів знає, як керувати і захищати ці системи, на яких ще залежать фінансові установи?

Ризик дуже серйозний. Нові розробники — не лише молодші, а й ті, хто тільки входить у галузь — навчаються і розвивають свої навички. Але доки наступне покоління не наздожене, існує тривала вразливість, коли інституційні знання не настільки глибокі, як потрібно.

Люди з поверхневими знаннями можуть випадково спричинити ризики для даних або системи. Ці системи стійкі і мають кілька рівнів захисту від людських помилок, але ризик все ж залишається, доки навички не стануть достатніми. Банки вже сьогодні борються із цим розривом у навичках.

4. Розмови про безпеку часто зосереджені на інструментах, але ви наголошуєте, що людський фактор — це фронтова лінія. Які операційні прогалини ви найчастіше бачите у керуванні системами головних комп’ютерів?

Зазвичай управління зосереджене навколо підвищених дозволів. Коли інженер пише код, іноді потрібно підвищене дозволу для виконання певних дій у системі, щоб активувати більш чутливі функції. Якщо інженер неправильно зрозуміє найкращі практики, він може залишити відкритими двері, не зловмисно, а через неповне навчання або зручність. Компанії, які не оновлюють доступ при зміні ролей співробітників, ризикують розкривати чутливі дані без потреби. Навіть за наявності сучасних технологій основи безпеки залишаються важливими і часто ігноруються.

Також важливо мати чіткий процес відкликання дозволів, коли співробітник змінює роль або звільняється. Це зменшує ризик доступу до даних, які вже не потрібні. Багато компаній залишають відкритими бекдори, що дозволяє інженерам працювати безпосередньо з кореневими рівнями системи, хоча це і створює додаткові ризики.

Більшість співробітників можна довіряти, але ці фундаментальні принципи часто ігноруються або залишаються без уваги.

5. Атаки з використанням програм-вимагачів зараз націлені не лише на кінцеві точки, а й на ядро інфраструктури. Що робить застарілі системи унікально вразливими — і водночас, у деяких випадках, більш стійкими — ніж нові платформи?

Головні комп’ютери мають вбудовані рівні безпеки, яких більшість серверів позбавлені. Просто увійшовши у головний комп’ютер, ви не отримуєте доступ до критичних даних, які зазвичай блокуються програмами-вимагачами. Вам потрібно знати, де саме зберігаються дані, і як до них дістатися. Деякі дані розділені на сегменти, і зловмисник може отримати доступ лише до частини, а не до всього. Якщо у вас немає доступу до сховища, ви не побачите дані.

6. З вашого досвіду, яким має бути ефективне оновлення для фінансових установ, які не можуть дозволити собі “різати і замінити”, але прагнуть бути готовими до майбутнього?

Модернізація — це різне для кожної компанії залежно від стану їхніх додатків. Вони постійно оновлюють сервери і ноутбуки, але з традиційними головними системами ситуація складніша. Оскільки багато додатків розроблялися багато поколінь тому, найкраще — це ретельно оцінити, що робить кожен додаток, і планувати оновлення поетапно.

Можна розбити додаток на частини і оновлювати їх поступово, зменшуючи ризики і витрати. Важливо дивитися на процес оновлення як на безперервний, щоб постійно покращувати і вдосконалювати систему.

Керівники мають ставити питання: “Що ми можемо зробити зараз? Що можемо закінчити цього року? Що — у наступні два?” Це краще, ніж намагатися переписати все одразу.

Поступове оновлення — це ключ. Почніть з переписування однієї функції, потім додайте інші. Так поступово змінюйте систему.

Розрив і заміна — один із варіантів. Це звучить радикально, але насправді означає просто припинити використовувати одну систему і перейти на іншу. Це вимагає великої волі і бюджету, і може зайняти роки. Тому частіше — це просто “заміна”, що теж може тривати довго.

7. Для технічних керівників із менталітетом “хмара-перший”, що, на вашу думку, є найважливішим зміною у мисленні при роботі з критично важливими системами головних комп’ютерів?

Потрібно зрозуміти, що саме робить головний комп’ютер. За Гіппократовою присягою, перш за все — не нашкодити. Тому потрібно вивчити, за що відповідає головний комп’ютер, щоб уникнути помилок, які можуть завдати шкоди. Коли ті, хто орієнтується на хмару, зрозуміють, які транзакції йдуть у головний комп’ютер, їхню природу і наскільки їхній дохід залежить від цих транзакцій, вони зможуть уникнути пошкодження роботи і прибутковості компанії.


Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити