Please use this identifier to cite or link to this item: https://er.knutd.edu.ua/handle/123456789/31975
Title: Синтетична реальність: як deepfake-технології трансформують політичну комунікацію та архітектуру національної безпеки
Authors: Коваль, Ольга Миколаївна
Шаповалова, Алла Миколаївна
Фастовець, Наталія Валеріївна
Букорос, Тетяна Олександрівна
Keywords: масова комунікація
сучасні політичні ідеології
мас-медіа та політика
методи та технології в політиці
професійна етика й протоколи в політиці
Issue Date: 2025
Citation: Коваль О. М. Синтетична реальність: як deepfake-технології трансформують політичну комунікацію та архітектуру національної безпеки / О. М. Коваль, А. М. Шаповалова, Н. В. Фастовець, Т. О. Букорос // Національні інтереси України. – 2025. – № 11(16). - С. 1540-1551.
Source: Національні інтереси України
Abstract: Сучасний інформаційний простір стоїть на порозі фунда- ментальної трансформації: технології deepfake (поєднання «deep learning» і «fake») сформувалися в окрему, стратегічно небезпечну парадигму дезінфор- мації. Ці синтетичні медіа, створені або модифіковані алгоритмами ШІ, не просто фальсифікують окремі факти, а фундаментально підривають довіру до аудіовізуальних «доказів» як до об’єктивного відображення реальності. На відміну від класичних текстових фейків, deepfake атакують саму епістемоло- гічну основу публічної сфери. Вони створюють і посилюють «дивіденд брехуна» (liar's dividend) — руйнівну можливість для зловмисників миттєво оголосити неправдою будь-який незручний, але автентичний аудіо- чи відеозапис. Стрімка еволюція технології є показовою. Лише за кілька років вона пройшла шлях від перших гучних випадків несанкціонованих порно-відео зі знаменитостями (як-от Галь Ґадот у 2017 р.) до складних шахрайських схем. Це включає фінансові махінації через клонування голосу (Vishing), маніпуляції громадською думкою (т.зв. «October surprise» на виборах) та прямі загрози державній безпеці. Водночас deepfake ніколи не працюють ізольовано. Вони є «корисним навантаженням» (payload) у складних, багатоканальних операціях впливу. Ці операції комбінують бот-мережі для початкового «посіву», псевдо-медіа для «легалізації» контенту та державні дезінформа- ційні мережі (на кшталт «Doppelganger») для кросплатформного посилення. Аналіз deepfake поза цим гібридним, мультимодальним контекстом є стратегічною помилкою. Мета дослідження — показати, що ключова небезпека технології полягає не стільки в окремих актах обману, скільки в довгостроковому, корозійному знищенні інституційної довіри до політичної інформації, медіа, судочинства та легітимності управління в цілому. Дослідження поєднує технічну деконструкцію (аналіз моделей генерації, включно з GAN та дифузійними моделями, демократизацію інструментів через зниження вартості обчислень, та асиметрію «часу поширення» проти «часу перевірки») з порівняльно-правовим аналізом і кейс-стаді, що охоп- люють підходи ключових юрисдикцій (ЄС, США). Основний висновок полягає в тому, що наявні режими регулювання страждають від «проблеми темпу» (pacing problem), залишаючись фрагментованими та переважно реактивними. Самі по собі пост-фактум заборони і криміналізація «шкід- ливого використання» дають обмежений ефект. Вони не здатні зупинити поширення шкоди в режимі реального часу без створення паралельної тех- нічної інфраструктури довіри (наприклад, стандартів простежуваності контенту). Швидкі процедурні засоби захисту: Створення ефективних механізмів для жертв (оскільки шкода від deepfake є миттєвою та віральною), включно з прискореними судовими приписами на видалення/спростування та «гарячими лініями» під час виборчих періодів. Прозорість і підзвітність платформ: Покладення на онлайн-платформи (як ключових векторів поширення) чітких обов’язків належної обачності (due diligence), аудиту моделей детекції та прозорого журналювання модераторських рішень. Медіаграмотність та інституційна стійкість: Посилення не лише загальної медіаграмотності, але й професійних стандартів верифікації для ЗМІ, правоохоронних органів та публічних інституцій, формуючи «людський брандмауер» як останню лінію захисту. Запропонована модель розроблена з урахуванням адаптації для правопорядку України. Вона враховує не лише необхідність зближення з європейськими підходами (зокрема, EU AI Act та Digital Services Act (DSA)), але й нагальні потреби національної безпеки в умовах повномасштабної гібридної та конвенційної війни, де дезінформація є прямим інструментом агресії.
DOI: 10.32782/app.v76.2025.9
URI: https://er.knutd.edu.ua/handle/123456789/31975
Faculty: Факультет економіки та управління
Department: Кафедра приватного та публічного права
ISSN: 3041-1793
Appears in Collections:Наукові публікації (статті)

Files in This Item:
File Description SizeFormat 
maxim,+125.pdf251,8 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.