Новини Gate News: глибокофейковий AI дедалі частіше стає новою загрозою для KYC-систем банків і криптовалютних платформ. Нещодавні звіти показують, що кіберзлочинці з даркнету розробили та продають інструмент, який поєднує глибокі фейки й клонування живого голосу в реальному часі, здатний обходити традиційні перевірки особи. Цей інструмент не лише може генерувати надзвичайно переконливі синтетичні ідентичності, а й імітувати природні рухи обличчя та мовні реакції, через що KYC-перевірки стають важкими для відрізнення від реальності.
Поява AI-шахрайства в KYC руйнує традиційні моделі верифікації. Банки та криптоплатформи покладаються на перевірку документів, розпізнавання обличчя та живі тести, але цей інструмент може одночасно обходити три рівні захисту. Зловмисникам більше не потрібно викрадати реальні дані особи — натомість вони можуть швидко генерувати декілька віртуальних ідентичностей для масштабної реєстрації й шахрайських дій у короткий проміжок часу.
Фахівці з фінтеху попереджають, що наявні KYC-системи здебільшого не здатні повністю виявляти високорівневі глибокофейкові атаки. Деякі компанії вже почали впроваджувати інструменти виявлення на основі штучного інтелекту, які підвищують точність за рахунок аналізу мікровиразів і поведінкових аномалій, але й атакувальники безперервно нарощують технологічні можливості. Швидка еволюція шахрайського AI у сфері ідентифікації створює безперервну «гонку озброєнь» між обороною та атакою, збільшуючи безпековий тиск на цифрові фінансові платформи.
Експерти радять, щоб компанії будували багаторівневу систему захисту, поєднуючи AI-моніторинг і ручну перевірку, а також додаючи інструменти аналізу поведінки для відстеження підозрілих активностей після реєстрації користувачів. Така динамічна стратегія оборони допомагає безперервно виявляти потенційне шахрайство поза межами етапу верифікації. Оскільки глибокофейкові інструменти на основі штучного інтелекту постійно вдосконалюються, ризики безпеки для KYC-систем залишатимуться надовго.
Цей розвиток нагадує фінансовим установам, що один-єдиний метод перевірки вже не може гарантувати безпеку цифрових ідентичностей: необхідно нарощувати інвестиції в інтелектуальне виявлення та адаптивний захист, щоб протистояти хвилі шахрайства, спричиненого штучним інтелектом, і створити для цифрових фінансових платформ довірене середовище.