Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: https://er.knutd.edu.ua/handle/123456789/31975
Повний запис метаданих
Поле DCЗначенняМова
dc.contributor.authorКоваль, Ольга Миколаївна-
dc.contributor.authorШаповалова, Алла Миколаївна-
dc.contributor.authorФастовець, Наталія Валеріївна-
dc.contributor.authorБукорос, Тетяна Олександрівна-
dc.date.accessioned2025-12-03T10:31:41Z-
dc.date.available2025-12-03T10:31:41Z-
dc.date.issued2025-
dc.identifier.citationКоваль О. М. Синтетична реальність: як deepfake-технології трансформують політичну комунікацію та архітектуру національної безпеки / О. М. Коваль, А. М. Шаповалова, Н. В. Фастовець, Т. О. Букорос // Національні інтереси України. – 2025. – № 11(16). - С. 1540-1551.uk
dc.identifier.issn3041-1793uk
dc.identifier.urihttps://er.knutd.edu.ua/handle/123456789/31975-
dc.description.abstractСучасний інформаційний простір стоїть на порозі фунда- ментальної трансформації: технології deepfake (поєднання «deep learning» і «fake») сформувалися в окрему, стратегічно небезпечну парадигму дезінфор- мації. Ці синтетичні медіа, створені або модифіковані алгоритмами ШІ, не просто фальсифікують окремі факти, а фундаментально підривають довіру до аудіовізуальних «доказів» як до об’єктивного відображення реальності. На відміну від класичних текстових фейків, deepfake атакують саму епістемоло- гічну основу публічної сфери. Вони створюють і посилюють «дивіденд брехуна» (liar's dividend) — руйнівну можливість для зловмисників миттєво оголосити неправдою будь-який незручний, але автентичний аудіо- чи відеозапис. Стрімка еволюція технології є показовою. Лише за кілька років вона пройшла шлях від перших гучних випадків несанкціонованих порно-відео зі знаменитостями (як-от Галь Ґадот у 2017 р.) до складних шахрайських схем. Це включає фінансові махінації через клонування голосу (Vishing), маніпуляції громадською думкою (т.зв. «October surprise» на виборах) та прямі загрози державній безпеці. Водночас deepfake ніколи не працюють ізольовано. Вони є «корисним навантаженням» (payload) у складних, багатоканальних операціях впливу. Ці операції комбінують бот-мережі для початкового «посіву», псевдо-медіа для «легалізації» контенту та державні дезінформа- ційні мережі (на кшталт «Doppelganger») для кросплатформного посилення. Аналіз deepfake поза цим гібридним, мультимодальним контекстом є стратегічною помилкою. Мета дослідження — показати, що ключова небезпека технології полягає не стільки в окремих актах обману, скільки в довгостроковому, корозійному знищенні інституційної довіри до політичної інформації, медіа, судочинства та легітимності управління в цілому. Дослідження поєднує технічну деконструкцію (аналіз моделей генерації, включно з GAN та дифузійними моделями, демократизацію інструментів через зниження вартості обчислень, та асиметрію «часу поширення» проти «часу перевірки») з порівняльно-правовим аналізом і кейс-стаді, що охоп- люють підходи ключових юрисдикцій (ЄС, США). Основний висновок полягає в тому, що наявні режими регулювання страждають від «проблеми темпу» (pacing problem), залишаючись фрагментованими та переважно реактивними. Самі по собі пост-фактум заборони і криміналізація «шкід- ливого використання» дають обмежений ефект. Вони не здатні зупинити поширення шкоди в режимі реального часу без створення паралельної тех- нічної інфраструктури довіри (наприклад, стандартів простежуваності контенту). Швидкі процедурні засоби захисту: Створення ефективних механізмів для жертв (оскільки шкода від deepfake є миттєвою та віральною), включно з прискореними судовими приписами на видалення/спростування та «гарячими лініями» під час виборчих періодів. Прозорість і підзвітність платформ: Покладення на онлайн-платформи (як ключових векторів поширення) чітких обов’язків належної обачності (due diligence), аудиту моделей детекції та прозорого журналювання модераторських рішень. Медіаграмотність та інституційна стійкість: Посилення не лише загальної медіаграмотності, але й професійних стандартів верифікації для ЗМІ, правоохоронних органів та публічних інституцій, формуючи «людський брандмауер» як останню лінію захисту. Запропонована модель розроблена з урахуванням адаптації для правопорядку України. Вона враховує не лише необхідність зближення з європейськими підходами (зокрема, EU AI Act та Digital Services Act (DSA)), але й нагальні потреби національної безпеки в умовах повномасштабної гібридної та конвенційної війни, де дезінформація є прямим інструментом агресії.uk
dc.language.isoukuk
dc.subjectмасова комунікаціяuk
dc.subjectсучасні політичні ідеологіїuk
dc.subjectмас-медіа та політикаuk
dc.subjectметоди та технології в політиціuk
dc.subjectпрофесійна етика й протоколи в політиціuk
dc.titleСинтетична реальність: як deepfake-технології трансформують політичну комунікацію та архітектуру національної безпекиuk
dc.typeArticleuk
local.subject.sectionПравознавствоuk
local.sourceНаціональні інтереси Україниuk
local.subject.facultyФакультет економіки та управлінняuk
local.identifier.sourceВидання Україниuk
local.subject.departmentКафедра приватного та публічного праваuk
local.identifier.doi10.32782/app.v76.2025.9uk
local.subject.method0uk
Розташовується у зібраннях:Наукові публікації (статті)

Файли цього матеріалу:
Файл Опис РозмірФормат 
maxim,+125.pdf251,8 kBAdobe PDFПереглянути/Відкрити


Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.