Генеративний штучний інтелект суттєво знизив поріг входу для створення фейкового контенту, який імітує журналістські формати, авторитетні обличчя та бренди медіа. Викрадення образу, голосу або стилю відомих журналісток, імітація «новинних сюжетів» із використанням логотипів реальних медіа та їх масове поширення в соцмережах стають інструментом професійної дискредитації, підриву довіри до новин і розхитування інформаційного простору України.

Технологічно зумовлене гендерне насильство (англ. — Technology-Facilitated Gender-Based Violence, TFGBV), спрямоване проти українських журналісток, стало одним із ключових напрямів системної роботи ГО «Жінки в медіа» у 2025 році. На Карті онлайн-атак зафіксовано численні інциденти, пов’язані з професійною діяльністю медійниць. Новим, але вже поширеним типом таких атак стали випадки із застосуванням генеративного штучного інтелекту — зокрема створення згенерованих фото-, відео- та аудіоматеріалів із використанням образу журналісток без їхньої згоди.
Такі атаки можуть мати тривалий характер і проявлятися через системне цькування, образливі коментарі, погрози в соціальних мережах і електронних листах, поширення персональних даних, а також створення маніпулятивного контенту з використанням образу журналістки. Поява доступних інструментів генеративного ШІ значно розширила масштаби та швидкість таких атак, ускладнюючи їхнє спростування та мінімізуючи відповідальність нападників.
Жінки-журналістки є окремою мішенню через поєднання професійної дискредитації з гендерно зумовленими формами приниження, зокрема сексуалізацією та об’єктивацією. Оскільки багато з них виконують роль публічних «облич» медіа та користуються довірою аудиторії, викрадення їхнього образу або голосу стає ефективним інструментом інформаційної маніпуляції.
Як показало дослідження «Її голос — мішень для них», проведене ГО «Жінки в медіа», 81% опитаних журналісток мали досвід цифрових атак, а 14% повідомили, що онлайн-погрози переходили в реальне життя — від переслідування до витоку персональних даних.
Поява та широка доступність інструментів ШІ, зокрема для генерації фото-, відео-, аудіо- й текстового контенту, суттєво розширює можливості для вчинення таких атак і підвищує їхню масштабованість. Згідно з дослідженням «Коли штучний інтелект стає ворожим», серед 119 опитаних ГО «Жінки в медіа» українських журналісток 7% вже стикалися з онлайн-атаками, створеними із застосуванням ШІ, а ще 16% повідомили, що спостерігали подібні атаки щодо своїх колег.
Ключова мета ШІ-атак
Онлайн-атаки із застосуванням генеративного ШІ, спрямовані проти журналісток, у більшості випадків мають чітку мету — професійну дискредитацію. Йдеться не лише про шкоду окремій медійниці, а й про підрив довіри до медіа, яке вона представляє, та до журналістики загалом.
Такі атаки реалізуються через кілька повторюваних механізмів: викрадення образу або голосу журналістки, фейкову атрибуцію контенту від імені реальних медіа (логотипи, візуальні стилі, плашки новин) та масове поширення маніпулятивних матеріалів у соціальних мережах і месенджерах. Генеративний ШІ дозволяє відтворювати впізнавані обличчя та голоси з високим рівнем правдоподібності, що ускладнює швидке розпізнавання фейків аудиторією.
У результаті журналістка може опинитися в ситуації, коли їй приписують заяви або дії, яких вона ніколи не здійснювала, а створений контент подається як частина реального журналістського продукту. Це створює ризики не лише для особистої репутації медійниці, але й для редакції, телеканалу або видання, бренд яких використовується без дозволу. У низці випадків такі атаки мають ознаки координованих інформаційних операцій, спрямованих на формування недовіри до українських медіа та загострення внутрішніх суспільних напружень.
Далі розглянемо кілька показових кейсів, зафіксованих ГО «Жінки в медіа», які ілюструють, як саме інструменти генеративного ШІ використовуються для професійної дискредитації.
Фейкова «новинна» реальність

9 грудня 2025 року в телеграм-каналі @zeleboba_ai з’явився допис із підводкою: «Сьогодні у слідчому ізоляторі від серцевого нападу несподівано помер бізнесмен Ігор Коломойський, — Наталія Мосейчук». До допису було прикріплено відео з жінкою, візуально схожою на відому ведучу телеканалу 1+1 Наталію Мосейчук. Ролик містив вотермарк каналу, логотип ранкової програми «Сніданок з 1+1», а також ім’я та прізвище журналістки, що створювало враження реального новинного продукту.
У відео жінка емоційно повідомляє про нібито смерть Ігоря Коломойського — колишнього співвласника медіаактивів холдингу 1+1. Контент має ознаки згенерованого за допомогою ШІ: надмірно «ідеалізоване» зображення, неприродний рух сліз, легка розсинхронізація відео й аудіо, а також помилки в наголосах. Далі у ролику з’являється згенероване зображення чоловіка на металевому столі в приміщенні, стилізованому під морг, а також фото Коломойського з траурною стрічкою. В іншому куті кадру — логотип програми «ТСН — Телевізійна служба новин».
Цей кейс поєднує одразу кілька форм технологічно зумовленого гендерного насильства: імперсоналізацію (викрадення образу впізнаваної журналістки), гендерну дезінформацію та онлайн-дифамацію через поширення фейкового відео, яке подається як заява реальної медійниці. Метою таких дій може бути професійна дискредитація як самої Наталії Мосейчук, так і телеканалу 1+1. За даними ГО «Жінки в медіа», онлайн-атаки на Наталію Мосейчук як одне з публічних облич каналу фіксувалися щонайменше у семи випадках, зокрема із застосуванням інструментів ШІ.
Інший характер професійної дискредитації демонструє кейс журналістки з Ужгорода Олени Мудрої. Під час кампанії проти неї інструменти штучного інтелекту використовувалися не лише для атак на саму журналістку, але й для втягування її родини. Невідомі створили й поширили відео із використанням зображення її сина, наклавши згенерований голос, а також поширювали маніпулятивні дезінформаційні меседжі від імені згенерованого персонажа Маріка Федірка.
«Це відео змонтоване з нарізки відеофайлів…та згенерованого ШІ відео з Маріком Федірко на фоні Ужгородської міської ради. Наразі воно має близько 4,5 тисяч переглядів», — написала Олена Мудра на своїй сторінці у Facebook. У коментарі ГО «Жінки в медіа» вона зазначила, що ці атаки є частиною координованої дискредитаційної кампанії, пов’язаної з її професійною діяльністю.
Зі спробами професійної дискредитації також стикнулася журналістка видання «Дзеркало тижня» Ірина Ведернікова. У липні 2025 року в телеграм-каналі «Джокер» було опубліковано допис із твердженнями, що дискредитують журналістку та видання, а також містять звинувачення щодо її чоловіка. Надалі в каналі з’явилася серія публікацій із використанням зневажливої лексики на адресу Ведернікової та редакції.
Ці дописи супроводжувалися ілюстраціями, згенерованими штучним інтелектом, із зооморфними рисами, зокрема у вигляді «свинячої морди», що є формою візуального приниження. Таким чином, атака була спрямована одночасно на журналістку, медіа, яке вона представляє, та її родину.
Розглянуті кейси демонструють системний інструмент професійної дискредитації, який підриває довіру до окремих медійниць, редакцій та українського медіапростору загалом.
Викрадення образу, якому довіряє аудиторія

Мішенню для онлайн-атак часто стає ще одна популярна ведуча каналу 1+1 — Соломія Вітвіцька. У дослідженні «Штучний інтелект і ТікТок: як відомих журналісток перетворюють на фейки», яке провели журналісти видання Texty.org.ua у партнерстві з ГО «Жінки в медіа», під час аналізу контенту в соцмережі Тік-Ток було виявлено 7 відеогенерацій і 83 аудіоманіпуляції, в яких фігурує Вітвіцька.
До прикладу, це сюжет, у якому нібито Соломія Вітвіцька під час ефіру в студії 1+1 рекламує чудодійні лікувальні засоби, «про які мовчать медики і не знайти в аптеках».
«Шахраї продовжують освоювати ШІ. Тепер вони вже генерують історії. Шматочок краденого відео ТСН з Соломія Вітвіцька, а далі чисте тобі ШІ. Хоч би кубик зробили однаковий», – написав у своєму Фейсбуці медіа юрист Ігор Розкладай, який звернув увагу на це відео.
Для створення подібних сюжетів й справді можуть використовувати фрагмент справжнього ефіру з Вітвіцькою, накладаючи на нього згенеровану ШІ аудіодоріжку з потрібним меседжем та змонтовуючи цей уривок з іншими кадрами. Такі маніпуляції зазвичай помітні завдяки розсинхронізації аудіо та відео доріжок. Або ж генерують штучний образ «Соломії Вітвіцької» — людину, візуально схожу на неї.
«Часом хейт та цькування у мережі вибиває сильніше, ніж будь-які новини», — зазначала Соломія Вітвіцька раніше у коментарі «Жінки в медіа». Восени вона стала однією з учасниць програми індивідуальних ретритів для медійниць, які стикаються з онлайн-насильством у зв’язку з професійною діяльністю.
Схожі відео у Тік-Тоці публікуються також за участі інших відомих ведучих, зокрема з каналу 1+1. Наприклад, у травні 2024 року таку онлайн-атаку було скоєно на Марічку Падалко. Через відео, у якому використано її образ, розповсюджується дезінформація про нібито виплати у сумі 2 тис грн для пенсіонерів, отримати які можна, заповнивши анкету за посиланням у шапці профілю Тік-Ток акаунта. Подібну атаку «Жінки в медіа» також зафіксували щодо ведучої Оксани Гутцайт: у Тік-Ток акаунті dobrodar_media вона нібито рекламує «виплати для ВПО».
Метою таких дій можуть бути спроби використати знайомі широкій аудиторії обличчя телеведучих, які викликають авторитет і довіру, та бренд відомого телеканалу задля поширення фейкових наративів або з шахрайськими цілями. Заклик заповнити невідому анкету може бути спробою незаконно зібрати персональні дані. Й здійснюється цей заклик нібито від імені Марічки Падалко або Оксани Гутцайт, що може негативно вплинути на їх професійний імідж.
Розхитування настроїв

У статті «Останні дні соцмереж. Як штучний інтелект ламає інтернет», що вийшла на «Українській правді» 8 січня 2026 року, зазначається, що одним зі «слів року» в 2025-му Оксфордський словник обрав поняття rage bait, що означає контент, навмисно створений для провокування гніву й обурення заради трафіку та взаємодій.
«Фактор ШІ різко посилив цей ефект. Як пояснює дослідниця Стенфордського інституту штучного інтелекту Анжель Крістін, нейромережі зробили виробництво провокаційного контенту дешевим, швидким та масовим. Якщо раніше обурення потрібно було ретельно конструювати, то тепер достатньо згенерувати абсурдний або образливий візуальний образ», — йдеться у матеріалі.
Цю тенденцію фіксують також і «Жінки в медіа», аналізуючи онлайн-атаки, скоєні на журналісток за допомогою ШІ. Справді, провокування гніву та обурення аудиторії є одним із завдань таких атак. Кінцевою метою, ймовірно, є розхитування соціально-політичної атмосфери в країні. У центрі таких відео — часто болючі для аудиторії теми, які можуть сприйматися контроверсійно. Як-от, наприклад, тема мобілізації через поширення популярного фейкового наративу «чому діти депутатів не воюють».
В такому відео з’являється уже знадана нами раніше ведуча Соломія Вітвіцька: у сюжеті, що розміщений на Тік-Ток каналі ukrnews_today, вона начебто запрошує підписати петицію, яка зобов’яже депутатів йти на фронт. На зображення навіть накладено підпис «Депутатів на фронт?» крупними літерами для ще більшого привернення уваги глядача.
На темі мобілізації спекулюють також і творці іншого сюжету від ukrnews_today. Там використано фрагмент ефіру програми ТСН на 1+1 за участі ведучої Юлії Бориско. Вона закликає глядача перейти за посиланням у шапці профілю Тік-Ток сторінки та підписати петицію, начебто ініційовану колишнім головнокомандувачем ЗСУ Валерієм Залужним проти мобілізації молодих чоловіків віком 18-25 років. Відео та звук в цьому сюжеті розсинхронізовані, а голос не схожий на реальний голос Юлії Бориско, що свідчить про використання ШІ.
У цих атаках ми бачимо відразу кілька компонентів: чергове нагадування про скандальну тему мобілізації, спонукання глядача перейти за анонімним, можливо, шахрайським посиланням, та спроби підірвати професійну репутацію ведучих.
Спроби розхитування ситуації можуть здійснюватися не лише за допомогою викрадення образу реальних журналісток, а також і через створення узагальнених образів ведучих. Наприклад, ось це відео, опубліковане на каналі 0001.kkkk: ведуча, яка тримає синій мікрофон із гербом України, цікавиться у невідомого чоловіка в костюмі, чому його діти не йдуть воювати. Її співрозмовник — це начебто народний депутат, проте його образ також узагальнений. Вони розмовляють у приміщенні, яке нібито нагадує якусь із урядових або парламентських будівель. Проте насправді не зрозуміло, ні хто ця ведуча, ні хто цей чоловік. Також узагальненням є мікрофон із логотипом у вигляді тризуба, адже насправді медіа, які б мали такі офіційні логотипи, в Україні немає.
Ще одна невідома журналістка спілкується із невідомим чоловіком у костюмі, звертаючись до нього «пане депутате», у відео на каналі zsy.2026 в Тік-Ток. Вона також ставить йому питання щодо того, де зараз його сини та чому вони не на фронті. Проте на цей раз під відео додано підпис, що воно створене за допомогою штучного інтелекту. Попри це під дописом є шість коментарів, у яких користувачі хвалять «журналістку». Цей приклад підтверджує, наскільки реалістичними можуть здаватися подібні сюжети для тих, хто не вдивляється у деталі та не намагається розібратися у суті — навіть якщо відповідний підпис повідомляє про використання ШІ.
Ще один приклад — ШІ-атака на журналістку Ольгу Бутко, скоєна у травні 2025 року. Тоді в YouTube, TikTok і Telegram-каналі «Рифмы и Панчи» з’явилися відео, змонтовані так, ніби ведуча Ольга Бутко під час ефіру загальнонаціонального марафону «Єдині новини» назвала президента Росії Володимира Путіна «президентом України». Ця атака негативно впливає не лише на імідж самої журналістки та медіа, в якому вона працює, а й на довіру до державних комунікацій загалом. З огляду на зміст фейку, вибір платформи поширення та системне використання подібних наративів, цей кейс може мати ознаки інформаційно-психологічної операції, спрямованої на дискредитацію української влади та публічних інституцій, і ймовірно пов’язаної з інтересами Росії як держави-агресора.
Жарти на межі

Штучний інтелект сьогодні активно використовується для створення розважального та сатиричного контенту. Втім, у низці випадків така практика розмиває межу між гумором і маніпуляцією, створюючи додаткові етичні та інформаційні ризики.
Одне з таких відео розміщене на Тік-Ток каналі aleksander.ai й підписане як «Інтерв’ю немовля повна версія». На відео зображено хлопчика у вишиванці, який сидить у дитячому візку, також занадто декорованому вишивкою. На фоні — будинок, схожий на українську сільську хату-мазанку. У хлопця по черзі беруть інтерв’ю кілька різних «журналісток» — це узагальнені образи ведучих. Вони мають різний колір шкіри, волосся, мікрофони з різними, нечитабельними логотипами, але усі вбрані у костюми в синьо-жовтих кольорах. Коли дитина відповідає, деякі «ведучі» ворушать губами у такт із нею, також однаково затуляють рота долонею, ніби стримуючи сміх.
Хлопчика запитують, хто головний у сім’ї — тато чи мама, що він знає про дружбу тощо. Дитина дає дотепні відповіді на ці питання та сміється. Контент маркований автором як такий, що створений штучним інтелектом. При цьому, під відео — 139 коментарів, серед яких такі: «Чому ви вчите дитину?», «молодець чудово малюк», «пацан клас», «супер які діти мудрі» тощо. З цього можна зробити висновок, що попри маркування ШІ та нереалістичність самого відео загалом, деякі користувачі все одно сприймають його як справжнє.
На жаль, етичну межу іноді переходять й самі журналісти, в чиїх руках опиняються інструменти ШІ, під час спроб розважити свою аудиторію. Нещодавній приклад — це публікація на Фейсбук-сторінці видання «Думка медіа», де за допомогою штучного інтелекту редакція спробувала підібрати для посадовців і політиків Харкова «ідеальну пару». Тут і «брюнетка з виразними очима», і «молода білявка з приємною, миловидною зовнішностю», і «тендітна, елегантна блондинка».
Поширення такого роду контенту через медіа є проблемним з кількох причин. По-перше, існують великі ризики, що ці фото у подальшому можуть бути використані на сторонніх ресурсах без зазначення про ШІ, як нібито реальні зображення у маніпулятивних цілях, що вводитиме в оману читачів. По-друге, створення та поширення таких жіночих образів з відповідними підписами — це типовий приклад сексизму, де жінку використовують як «декорацію» для успішного чоловіка-посадовця.
Крім того, доступність інструментів генеративного ШІ знижує поріг входу для створення фейків, дозволяючи швидко виробляти й масово поширювати контент, спростування якого потребує значних ресурсів. Атаки із застосуванням ШІ посилюють тиск на журналісток, підвищуючи ризик переходу онлайн-насильства в офлайн-вимір.
«Координоване поширення ШІ-згенерованого контенту на чутливі суспільні теми створює умови для маніпулювання громадськими настроями та може використовуватися в межах ширших інформаційно-психологічних операцій проти України», — говорить Ліза Кузьменко, голова ГО “Жінки в медіа”, членкиня Комісії з журналістської етики.
Нагадаємо, що організація «Жінки в медіа» підготувала гайд: «Що має зробити редакція в перші 24 години після онлайн-атаки на журналістку». Онлайн-атака може мати руйнівний вплив на психологічний стан журналістки, її фізичну безпеку, професійну репутацію та бажання продовжувати свою роботу. Дії редакції в перші 24 години критично важливі для стабілізації ситуації, запобігання ескалації конфлікту та відновлення довіри.
This document has been produced with the financial support of the European Union, within the framework of RSF’s action in Ukraine, as part of the project ‘Not Artificial Threats: Tackling AI-Facilitated Violence Against Women Journalists in Ukraine’, implemented by the NGO Women in Media. The contents of this document are the sole responsibility of the NGO Women in Media and can under no circumstances be regarded as reflecting the position of either RSF or the European Union.