Передній міністр цифрового розвитку Тайваню Тан Фенґ нещодавно провів глибокий діалог із японським ученим Йоічі Охіай у програмі «WEEKY OCHIAI», під час якого обговорювали пізнавальну загрозу, яку в цифрову епоху несе Fog of War (туман війни) для широкого загалу. Обидві сторони у межах глибокої дискусії торкнулися таких тем, як інформаційний хаос, спричинений штучним інтелектом, алгоритмічна поляризація та те, як допомогти підліткам долати розбіжності.
Під туманом війни алгоритми соцмереж посилюють суспільну поляризацію
На самому початку розмови Тан Фенґ зазначив, що сучасне суспільство перебуває під загальною загрозою «туману війни», тобто станом, коли інформація є сильно розділеною та хаотичною. Таке явище виникає через рекомендаційні двигуни соцмереж: їхня початкова мета — максимізувати залученість користувачів, однак у практичній роботі алгоритми часто схиляються до поширення емоційного контенту, здатного розпалювати гнів і протистояння. Тан Фенґ запропонував концепцію «рівня поляризації за хвилину» (ppm), щоб кількісно оцінити це явище, пояснивши, що коли неправдиві повідомлення та розбіжні висловлювання поширюються настільки швидко, що їх ще до штучного прояснення встигають рознести, громадськість стає неспроможною відрізнити правдиву інформацію; через маніпуляцію громадською думкою безпосередньо втручаються в здатність людини робити судження. Таке середовище стимулює Cognitive Warfare (когнітивну війну): індивід надзвичайно легко потрапляє в «електронну бульбашку» однодумців, вибудувану алгоритмами, що в подальшому поглиблює відчуття колективної недовіри в суспільстві.
Як штучний інтелект може допомогти підліткам?
У контексті поширення інструментів штучного інтелекту в обговоренні згадувалися приховані ризики того, що частина підлітків, помилково використовуючи технології, потрапляє в пастку шахрайства і стикається з юридичними санкціями. Тан Фенґ вважає, що самі лише покарання не є кінцем процесу виховання; суспільство має перейти до профілактичного спрямування. У епоху штучного інтелекту освіта не повинна більше робити акцент на логіці правил або практичних навичках, які машина може легко замінити; натомість слід зосередитися на формуванні унікальних чеснот, які машина не здатна скопіювати.
Тан Фенґ запропонував три ключові освітні цілі: по-перше, Curiosity (цікавість) — заохочувати розвиток унікальних перспектив, щоб розуміти інших; по-друге, Collaboration (співпраця) — формувати індивідуальний стиль взаємодії, який має більшу впізнаваність, ніж відбитки пальців; і, нарешті, Common Good (суспільне благо) — через спільні цінності перетворювати конкуренцію на взаємну вигоду, зміцнюючи підхід, орієнтований на людину: лише тоді індивід зможе зберігати незамінну цінність у час технологічних змін і матиме психологічну стійкість, щоб протистояти цифровим впливам.
Pre-Bunking (попереднє спростування) як механізм цифрового захисту
На рівні інститутів Тайвань через краудсорсингові системи та громадянські збори зобов’язує соцмережі нести солідарну відповідальність за шкідливу рекламу, не перевірену попередньо; цей крок успішно зменшив шахрайську рекламу на 94 %. Крім того, відповідаючи на поширення фейкових повідомлень і шахрайств, Тан Фенґ поділився практичними напрацюваннями Тайваню з впровадження Pre-Bunking (попереднього спростування) та когнітивного захисту. Порівняно з виправленням «після факту», коли підлітки «беруть участь» у розпізнаванні шахрайства і в процесі тренування захисних «машин», це може ефективніше формувати психологічний імунітет.
AI-розмітка довідкової інформації для прояснення вихідного контенту в моменті та зниження поляризації
Тан Фенґ порівнює «кооперативні нотатки» з вакциною від інформаційного вірусу. Оскільки традиційне виправлення помилок часто відстає від темпів поширення сенсаційних постів, за допомогою моделей штучного інтелекту, коли публікацію позначають, одразу автоматично надається контекстна інформація; це дозволяє слухачам/читачам у момент контакту з вихідним контентом одразу отримати необхідні уточнення, ефективно знижуючи рівень поляризації в цифровому середовищі.
Налаштування мобільних пристроїв у режимі Grayscale mode (градації сірого) для зменшення спокус залежності
У кінці обговорення все повернулося до міжособистісних зв’язків і персональної цифрової гігієни. Тан Фенґ вважає, що найкращий спосіб протидіяти когнітивній війні — не загострювати протистояння, адже саме поляризація грає на руку нападникам. Натомість потрібно вибудовувати здорові, гармонійні стосунки: наприклад, застосовувати почуття гумору та ділитися історіями, щоб згладжувати конфлікти — і саме так можна усунути ворожість, що виникає через інформаційну прірву, з першоджерела. На індивідуальному рівні Тан Фенґ радить прості та практичні звички цифрової гігієни, зокрема встановити для екрана мобільного пристрою Grayscale mode (режим градацій сірого). Це суттєво зменшує адиктивні спокуси, які «пікселізований» контент створює для мозку, допомагаючи користувачам підтримувати ясність мислення в потоці інформації. Завдяки кооперативним інструментам і цифровій самодисципліні суспільство може вибудувати систему оборони, яка не має нападницького характеру, щоб колективним розумом протистояти злу, яке алгоритми поширюють, і шукати консенсус та правду в цифровому тумані.
Ця стаття «Тан Фенґ: за допомогою AI-міток і механізму співпраці захистити підлітків, збудувавши парасольку оборони від когнітивної війни» вперше з’явилася на Lian News ABMedia.