Всі матеріали

Гендерне насильство онлайн: як Meta, TikTok і YouTube ігнорують виклики в Україні

08.07.2025

Все частіше платформи стають простором для поширення гендерно-абʼюзивного контенту: сексистських висловлювань, погроз, домагань, сталкінгу та багатьох інших форм поведінки, що мають довгострокові наслідки. Ситуацію лише підігріває політична криза у Сполучених Штатах. Оскільки більшість технічних гігантів зареєстровані саме там, їх спроба наслідувати політичний вектор чинної адміністрації спричиняє згортання політик рівності і різноманіття. Як наслідок, знижується і рівень реагування на численні інциденти, що повсякчас трапляються на платформах, і в тому числі таргетують журналісток, активісток і правозахисниць.

У цьому матеріалі ми розглянемо ключові проблеми внутрішнього дизайну платформ, зокрема спільні виклики та труднощі роботи в регіоні. Крім того, ми проаналізуємо особливості роботи Meta (Facebook та Instagram), YouTube і TikTok, як одних з найпопулярніших ресурсів в Україні. А також зʼясуємо, чи можливо вжити заходів для покращення ситуації з управлінням контентом (спойлер: не завжди, але деякі компанії принаймні намагаються).

“Камінь спотикання” кожної платформи

Практика показує, що в регіонах, де платформи не мають юридичної реєстрації, якість їх роботи є відчутно гіршою. І Україна не виняток. Ситуація була критичнішою до 2022 року, доки  Україна не потрапила на перші шпальти через російську повномасштабну агресію, а засилля російської пропаганди в мережі не стало улюбленим обʼєктом вивчення іноземних аналітиків. Втім, цілий букет проблем, повʼязаних з управлінням контентом, досі існує. Які спільні виклики сьогодні поділяють більшість платформ і що з цим можна зробити?

  • Покращення управління контентом українською мовою. Попри значні зусилля, докладені в цій сфері, управління контентом українською мовою все ще залишається досить проблематичним для більшості платформ. Це особливо актуально, коли йдеться про списки “заборонених слів” та заборонених організацій. Наприклад, дописи на гострі суспільні теми часто блокують або знижують їх видимість через наявність у них слів з переліку так званих “слюрів” (лайливих фраз, які вважаються мовою ворожнечі). Як наслідок, журналістські матеріали часто зникають з платформ. Тож надзвичайно важливо розкривати такі списки, принаймні, довіреним партнерам платформ в Україні та регулярно колективно переглядати актуальність вмісту таких списків, оновлюючи їх за необхідності;
  • Посилення заходів протидії деперсоніфікаціям (видаванню себе за іншу особу). Численні державні службовці, журналісти, активісти та лідери думок повсякчас страждають через фальшиві акаунти, які поширюють шкідливий контент з російською пропагандою, дезінформацією та незаконними підбурюваннями. При цьому, такі акаунти намагаються видавати себе за реальних відомих осіб. Після створення фальшивих акаунтів зловмисники подають скарги на спробу видавання себе за іншу особу, і досить часто справжні акаунти журналістів та державних службовців блокуються. Справжні запити на відновлення акаунтів та видалення фальшивих сторінок розглядаються протягом кількох тижнів, що спричиняє значну шкоду. Тому, рекомендується переглянути систему розгляду скарг щодо деперсоніфікації та забезпечити швидке реагування, особливо для верифікованих акаунтів (таких, що мають блакитну пташечку);
  • Розробка механізмів швидкого реагування на скарги журналістів. Оскільки більшість кейсів, що виникають на основі публікацій журналістського та медіаконтенту, є дуже терміновими, вкрай важливо оперативно розглядати скарги щодо обмеження облікових записів/окремих дописів. Тож, платформам варто створити окремий канал для передачі запитів медіа та журналістів щодо перегляду обмежень, застосовуваних до їхніх профілів (при цьому, ця проблема актуальна не лише в Україні, а й по всьому світу);
  • Боротьба з доксингом жінок та ЛГБТ+ організацій, запобігання випадкам гендерно зумовленого насильства. Платформи використовують для розкриття персональних даних жінок-журналісток, особливо тих, хто висвітлює злочини Росії, працює у сфері боротьби з корупцією та розслідувань. Такі дії переважно спрямовані на вразливі групи, включаючи ЛГБТ+ спільноту. Розкриті конфіденційні дані використовуються для погроз, переслідування та сталкерства. Алгоритми, при цьому, недостатньо якісно реагують на порушення і не видаляють публікації автоматично, а скарги часто залишаються без уваги. У найкритичніших випадках це призводить до фізичної шкоди. В цьому контексті, при розгляді скарг слід надавати пріоритет таким, що пов’язані з випадками доксингу та гендерно зумовленого насильства, а також надавати контактні дані гарячих ліній, що працюють з потерпілими від гендерно зумовленого насильства, під час реагування на такі скарги;
  • Адаптування політики щодо товарів з обмеженим обігом до контексту військових репортажів. Військові кореспонденти часто стикаються з обмеженнями, які накладають на контент/акаунти, пов’язані з візуалом, що містить зброю/елементи зброї. Такі обмеження вводяться на підставі політики щодо товарів з обмеженим обігом. При цьому, за своїм змістом контент зазвичай повідомляє про воєнні злочини, скоєні Росією в Україні – тобто становить неабиякий суспільний інтерес. Тож, будь-які обмеження – навіть попереджувальний екран – найімовірніше, зменшить його цінність як доказу злочинів. Відповідно, існує суттєвий суспільний запит на обмеження застосування політики щодо зображення зброї в регіонах збройного конфлікту для захисту інформації, що становить суспільний інтерес, у військових репортажах.

Очевидно, що наведений перелік проблем не є вичерпним і регулярно оновлюється як через збої в роботі алгоритмів платформ, так і через новітні суспільні виклики (як-от засилля генерованого ШІ дезінформаційного контенту). Щобільше, для України актуальним є питання застосування вимог європейського законодавства – наприклад, Акту про цифрові послуги. Оскільки більшість платформ (Meta, Telegram, Google) заявила, що не збирається застосовувати вимоги європейських актів поза межами ЄС, важливо розуміти, якими правилами платформи керуватимуться, модеруючи контент в Україні. На додаток, оскільки політичні зрушення в США сприяли зміні підходів до управління контентом, критичним є належна навігація у змінах до таких політик. Зокрема, і тих, що стосуються модерації під час збройного конфлікту.

Зрештою, в Україні вже декілька років чинним є Закон України ”Про медіа”, який передбачає можливість Національної ради підписувати меморандуми про співпрацю із платформами. Втім, на сьогодні жодного такого документа підписано не було. За словами Національної ради, більшість платформ ігнорує запити і відмовляється від будь-якого “особливого” порядку співпраці, посилаючись на загальні Правила спільноти. Тож, спроба налагодити контакти на рівні національного регулятора може стати потужним першим кроком у бік покращення роботи платформ у регіоні, адже створить єдину точку контакту і підвищить обізнаність компаній в українському контексті.

Meta

Оскільки дизайн кожного з сервісів, декларовані цінності і підходи різняться від платформи до платформи, є ряд проблем, характерних для окремих компаній. Наприклад, Meta, яка обʼєднує Facebook та Instagram – одні з найпопулярніших платформ в Україні. В цілому, компанія вважається однією з найбільш добросовісних з погляду відповідей на запити та належної модерації контенту. Звісно ж, за винятком ситуації з закриттям програми фактчекерів після приходу до влади адміністрації Трампа. Втім, все ще існує ряд досить специфічних запитів, які часто залишаються без відповіді. Що з цим робити?

  • Обмежити застосування “неавтентичної взаємодії” як підстави для блокування контенту/акаунтів журналістів та правозахисників. Особисті профілі таких осіб часто блокуються через неправильне застосування «неавтентичної взаємодії» до їхньої діяльності. Це трапляється тому, що публікації на професійні теми отримують набагато більше репостів та публічних реакцій, ніж їхній особистий контент, і таким чином, вважаються такими, що залучають аудиторію у зловмисний спосіб (приклад). Це значно шкодить поширенню інформації, що становить суспільний інтерес. Відповідно, застосування цієї підстави для обмеження контенту чи акаунтів до медіа, журналістів та членів громадянського суспільства має бути обмежене, щоб уникнути хибнопозитивних результатів алгоритмів у критичних випадках;
  • Слід приділяти більше уваги випадкам онлайн-переслідувань, кібербулінгу та публічних мізогінних висловлювань. Хоча алгоритми часто належним чином реагують на расистську мову ворожнечі та незаконні підбурювання, вони не виявляють та своєчасно не видаляють сексистські висловлювання. Показовим прикладом стала ситуація в Україні з журналістами-розслідувачами, які працювали над справою про викрадення дітей батьками після розлучення та ненадання матерям доступу до них. Після публікації розслідування журналісти зазнали численних погроз, цькування, сексистських коментарів та інших проявів гендерно зумовленого насильства. Більшість скарг, поданих до Meta, залишилися без відповіді. Цей випадок був одним із багатьох подібних. Компанія має співпрацювати з місцевим громадянським суспільством для збору інформації про ключові показники сексистських висловлювань в місцевому та регіональному контексті та покращення своєї практики управління контентом;
  • Покращити реагування на діпфейки, що становлять гендерно зумовлене насильство. Діпфейки, що поширюються через Facebook та Instagram, спрямовані на жінок-журналісток, часто зображуючи їх у сексуалізованому вигляді. Оскільки цей контент не завжди підпадає під заборону порнографічних матеріалів (наприклад, не містить оголених частин тіла), він не видаляється автоматично. Ключова проблема полягає в тому, що скарги на такі публікації часто відхиляються, і дописи залишаються доступними достатньо довго, щоб зашкодити репутації та завдати психологічної шкоди. Платформам рекомендується покращити якість реагування на інциденти та надавати контактні дані гарячих ліній, що працюють з жертвами гендерно зумовленого насильства, під час реагування на такі скарги.

Ці приклади є радше анекдотичною вибіркою актуальних на момент публікації матеріалу проблем, повʼязаних переважно з темами гендерно зумовленого насилля. Водночас варто розуміти, що Meta має багато інших проблемних аспектів в управлінні контентом. Зокрема, йдеться і про згадану програму фактчекерів, яку наразі нічим замінити, і про так звані “нотатки спільноти” – механізм для залишення коментарів представниками громадськості щодо певних критичних кейсів у модерації. Чи буде такий механізм доступний в Україні – питання відкрите. Втім, він би міг стати дуже помічним в контексті обмеженої обізнаності модераційних команд про контекст і особливості інформаційного простору в Україні і регіоні.

TikTok

TikTok обʼєктивно менш досліджена платформа в Україні з погляду аналізу порушень в управлінні контентом. І цьому є декілька пояснень: по-перше, аудиторія платформи молодша, а контент, який звідти споживають – переважно розважальний. По-друге, публічно доступна інформація про алгоритми TikTok є менш прозорою та не дозволяє настільки детально аналізувати прогалини в порядку роботи систем модерації. Як наслідок, дослідникам набагато складніше давати рекомендації і оцінювати причини того, чому відбулася та чи інша помилка у модеруванні чи видачі публікацій.

  • Обмежити можливість подання неправдивих претензій щодо авторських прав. Журналістський та медійний контент, а також матеріали правозахисників видаляються на основі неправдивих скарг про порушення авторських прав, які подають переважно ті, чиї правопорушення викриваються в таких публікаціях. Оскільки більшість таких справ є суспільно важливими і терміновими, вкрай необхідно оперативно розглядати скарги щодо відновлення облікового запису/контенту, а також досліджувати альтернативні способи вирішення скарг щодо авторських прав (наприклад, спочатку вимагати підтвердження автентичності та авторства замість превентивної заборони контенту);
  • Збільшити кількість модераторів, які працюють з українським контекстом. Хоча нарощення команд завжди є проблематичним питанням з точки зору пошуку фінансування, дані щодо розмірів модераційної команди TikTok вказують, що вона є досить невеликою порівняно з кількістю користувачів. Ба більше, з огляду на те, що Україна перебуває в особливому контексті, команда з управління контентом має мати належну експертизу щодо регулювання контенту, повʼязаного зі збройним конфліктом. Це означає, що платформі слід переглянути кількість і спеціалізацію модераторів, які володіють українською і розуміють інформаційне середовище, і збільшити її відповідно до реального суспільного запиту;
  • Збільшити прозорість алгоритмів видачі контенту. У жовтні 2024 року звіт щодо діяльності платформи в Європі показав, що кількість видалень контенту суттєво зменшилася.Водночас після скандалів довкола участі TikTok у маніпуляціях виборами в Румунії через надзвичайно швидкий “розгін” матеріалів, що містили маніпуляції та відверту дезінформацію, ЄС і багато організацій громадянського суспільства почали закликати до збільшення прозорості роботи платформи. Тож, для того, щоб відповідати чинним стандартам щонайменше на рівні ЄС, TikTok варто переглянути формат розкриття інформації про порядок роботи алгоритмів та того, як відбувається видалення шкідливих матеріалів (пріоритет проактивної модерації над звичайним реагуванням на скарги користувачів, коли шкідливий контент вже “віруситься”).

Зрештою, однією з найбільших проблем є масова промоція проросійського контенту на платформі. Частково це спричинене особливістю алгоритмів, частково – необізнаністю модераційних команд у місцевому контексті. З одного боку, платформа декларує співпрацю з українським Центром протидії дезінформації. З іншого, надзвичайно важливо забезпечити можливість і громадянському суспільству та академічній спільноті залучатися до процесів формування списків заборонених слів та організацій, а також комунікувати щодо порядку модерації і актуальних викликів.

YouTube

На відміну від TikTok, YouTube – продукт компанії Google, найчастіше використовується для поширення більш змістовного контенту – новин, журналістських розслідувань, аналітичних матеріалів та досліджень. З одного боку, в нього є більша суспільна вага і начебто більший захист. З іншого – тематика матеріалів зачіпає більшу кількість резонансних тем і, як наслідок, спричиняє або блокування публікацій, або шквал ненависницьких реакцій у секції коментарів. І найбільшою проблемою тут є відсутність належної реакції на неправомірну активність інших користувачів – скарги ігноруються або розглядаються місяцями. Що може робити YouTube і які теми наразі є найбільш проблемними?

  • Повернути жорсткі політики протидії дезінформації. Після переобрання Трампа на другий президентський строк, YouTube раптово змінив політики щодо протидії інформації, яка містить маніпуляції, брехню та фейки. При цьому, широкомасштабної комунікації про такі зміни підходів не відбулося, тож про них дізналися місяці потому. Так, тепер дезінформація може залишатися на платформі триваліший час, а відео від публічних осіб часто позначається як таке, що має “суспільний інтерес” навіть якщо воно містить відверто неправдиву інформацію. Єдиним варіантом розв’язання проблеми перенасичення платформи фейковим контентом та дезінформацією є повернення до старих політик модерації неправдивого та маніпулятивного контенту;
  • Покращити модерацію сексистських та інших дискримінаційних коментарів. Якщо у 2024 році YouTube заявляв, що він посилює модерацію коментарів, які містять мову ворожнечі, то останні зміни в політики очевидно рухаються у протилежному напрямку. Це призводить до існування численних прикладів гендерно зумовленого насильства на платформі (подивитися дослідження Texty.org щодо кількості можна тут). Щобільше, YouTube останнім часом не лише проактивно не модерує, а ще й погано реагує на скарги щодо мізогінних коментарів. Це дозволяє зловмисникам розгортати цілі кампанії проти журналісток-розслідувачок, активісток і правозахисниць, крадучи увагу від реальних суспільно важливих тем до власне протидії нападкам. Тож платформі потрібно звертати більше уваги на тему протидії гендерно зумовленому насильству та, особливо, координованим кампаніям;
  • Обмежити можливість подання неправдивих претензій щодо авторських прав. Проблема, за своєю природою схожа до виклику, з яким стикаються модератори TikTok. І порада для YouTube буде дуже схожою – оперативно розглядати скарги щодо відновлення облікового запису/контенту, і досліджувати альтернативні способи вирішення кейсів щодо авторських прав. Також YouTube вже має спеціальні позначки для медійних ресурсів. Тож, ресурси медіа можуть та їх контент можуть оцінюватися за спеціальною окремою процедурою, коли йдеться про ймовірне порушення прав інтелектуальної власності.

Проблема з YouTube полягає в тому, що платформа недостатньо співпрацює з місцевими представниками громадянського суспільства та академічною спільнотою. Це призводить до того, що партнери не можуть допомагати вирішувати проблемні випадки нападок на вразливі групи, ветувати надійність і правомірність скарг та пояснювати місцевий контекст, особливо коли йдеться про контент, що стосується війни.

Замість висновків

Найгарячіші питання порядку денного варіюються залежно від платформ та геополітичного контексту, в якому вони діють. На актуальність деяких питань впливає і швидкий розвиток технологій ШІ, і здатність компаній належно забезпечувати (логістично і фінансово) цілі команди модераторів, які мають експертизу і обізнаність у контекстах.

І тут ще важливішою стає роль громадянського суспільства, яке може фіксувати масові випадки порушень прав людини на платформах, допомагати готувати скарги (особливо у випадках, коли є можливість комунікувати їх через довірених партнерів), та формувати пропозиції щодо покращення політик та практик управління контентом.

Важливо працювати на випередження і фіксувати небезпечні тренди, щоб бути готовим до конструктивної дискусії, коли проблема стане масовою.

Ця аналітика підготовлена в рамках ініціативи “Зміцнення стійкості жінок-журналісток в Україні: протидія онлайн-насильству та гендерній дезінформації”, яку реалізує ГО «Жінки в медіа» за підтримки Міністерства закордонних справ Нідерландів.

Скопійовано!