Брюссельський ефект у цифровій сфері: регуляторна влада та її глобальні наслідки
Новий звіт Конгресу США документує, як європейське цифрове регулювання формує практики модерації контенту далеко за межами ЄС — і чому це важливо для американських користувачів
140-сторінковий звіт, оприлюднений Комітетом Палати представників з питань судочинства, дає рідкісно детальну картину того, як цифрове регулювання Євросоюзу впливає на практики модерації контенту американських платформ у всьому світі. Документи — отримані шляхом парламентських повісток до провідних технологічних компаній — висвітлюють десятилітній регуляторний процес, наслідки якого виходять далеко за межі формальної юрисдикції ЄС.
Звіт ставить питання, на яке немає простої відповіді: коли демократичний блок із 450 мільйонів громадян встановлює правила управління контентом для платформ, що працюють на його території, — які зобов'язання це створює щодо користувачів у країнах, де ніхто за ці правила не голосував?
Від добровільних кодексів до обов'язкового виконання
Ця історія починається не з Акта про цифрові послуги — знакового регуляторного документа ЄС, що набрав чинності 2023 року, — а на десятиліття раніше. Коли міграційна криза 2015 року загострила політичні дискусії в мережі, Єврокомісія почала вибудовувати багаторівневу регуляторну архітектуру.
Її логіка була послідовною: добровільні кодекси поведінки щодо "мови ненависті" (2016) і "дезінформації" (2018) передували обов'язковому законодавству. Формально необов'язкові, ці інструменти несли в собі чітку інституційну логіку. Як публічно заявила тодішній єврокомісар з питань юстиції Вєра Йоурова, платформам доведеться довести, що добровільний підхід "працює" — інакше їх чекатимуть обов'язкові норми.
Внутрішні документи, отримані Конгресом, показують, як цю динаміку сприймали самі платформи. Співробітники Google описували участь у робочих групах з дезінформації в термінах, що не залишали простору для інтерпретацій: "У нас фактично немає вибору". Це не примус у правовому сенсі — це структурний ефект регуляторного масштабу. Платформи, що працюють на єдиному ринку ЄС, практично не можуть дозволити собі конфронтацію з виконавчим органом блоку.
Коли 2022 року прийняли АЦП — із штрафами до 6% від глобального річного доходу — перехід став очевидним. Керівник відділу правозастосування АЦП Прабхат Агарвал визнав на закритій нараді, що попередні добровільні кодекси слугували формуванню норм відповідності — і репутаційних витрат за їх недотримання — ще до того, як виникли формальні правові зобов'язання.
Позиція ЄС є цілком обґрунтованою у власній системі координат: АЦП розроблявся для зниження системних ризиків від скоординованих маніпуляцій, забезпечення прозорості алгоритмічного підсилення контенту та підзвітності великих платформ. Це легітимні регуляторні цілі, демократично схвалені урядами держав-членів. Аналітична проблема лежить в іншому — у тому, що відбувається, коли правила, розроблені для однієї юрисдикції, поширюються через ринкові стимули на інші.
Економіка глобального дотримання
Тут стає аналітично корисною концепція Брюссельського ефекту, розроблена професором Колумбійської школи права Ану Бредфорд. Її дослідження документують, як регуляторні стандарти ЄС неодноразово ставали де-факто глобальними стандартами — не тому, що їх прийняли інші країни, а тому, що компаніям, які працюють у глобальному масштабі, економічно раціональніше гармонізувати свої практики з найвимогливішим регуляторним середовищем, ніж підтримувати окремі системи для кожної юрисдикції.
АЦП демонструє цю динаміку наочно. Коли 2023 року TikTok переглянув свої Правила спільноти для відповідності АЦП, оновлені норми — зокрема нові категорії "маргіналізуючих висловлювань", "дезінформації, що підриває громадянські процеси" та "медіа, поданих поза контекстом" — набрали чинності по всьому світу. TikTok не створив окремий набір правил для США. Економічна та операційна логіка глобального управління платформами цього не передбачає.
Внутрішнє листування Meta з ЄК, процитоване у звіті Конгресу, прямо стверджує, що компанія застосовує "стандартні механізми" для виборів у всьому світі, зокрема ті, що розроблені у відповідь на європейські "Виборчі настанови". Це не змова — це передбачуваний наслідок регуляторної економіки. Питання в тому, чи цей наслідок передбачався і чи він є прийнятним.
Розмитість ключових понять посилює проблему. Такі формулювання, як "підриває довіру", "викривляє авторитетну інформацію" і "кодовані висловлювання", надають значний розсуд тому, хто їх застосовує. Цей розсуд, реалізований під регуляторним тиском ЄС, може породжувати наслідки, що не мають демократичної підзвітності в країнах, де живуть постраждалі користувачі.
Кризові протоколи та виборчий нагляд
Найбільш деталізовані розділи звіту Конгресу присвячені виборчим періодам — контексту, в якому рішення щодо управління контентом несуть найбільше політичне навантаження.
У межах зобов'язань за АЦП ЄК розробила "Виборчі настанови", що вимагають від платформ знижувати видимість визначеної дезінформації, співпрацювати з акредитованими фактчекерами та розробляти те, що в документі називається "попереджувальним спростуванням потенційних дезінформаційних наративів" — превентивне втручання щодо інформації, яку власті вважають потенційно небезпечною ще до її появи.
Словацький випадок ілюструє операційну реальність. За тиждень до парламентських виборів у Словаччині у 2023 році TikTok видалив контент, який власні нотатки модерації платформи описували як "поширений у словацьких політичних дискусіях". Підрозділ ЄК з правозастосування надіслав TikTok список із 63 акаунтів для перевірки; у звіті Конгресу зазначено, що частина з них була позначена за контент, що відповідав стандартам платформи, проте був визнаний проблематичним посадовцями ЄК.
Румунський випадок заслуговує окремої уваги — і не лише через те, як його трактує ЄК. Після того як незалежний кандидат-популіст Келін Джорджеску несподівано виграв перший тур президентських виборів 2024 року, Румунська служба інформації (SRI) та Служба зовнішньої розвідки (SIE) передали Конституційному суду рассекречені матеріали, що стали підставою для анулювання виборів. Зафіксована мережа з близько 25 000 акаунтів, які одночасно активувалися після восьми років "сну"; реєстрація через російські поштові сервіси; управління через турецькі IP-адреси, характерні для тактик обходу блокувань; нарешті, TikTok підтвердив видалення мереж, пов'язаних зі Sputnik, що працювали на румунську та молдавську аудиторії. Офіційний бюджет кампанії Джорджеску становив "0 леїв" — спецслужби встановили приховане фінансування на понад €1 млн через криптовалюту і платежі під час TikTok-стрімів.
Це задокументований, доведений у судовому порядку факт зовнішнього втручання. Саме тому викликає серйозні питання той фрагмент звіту Конгресу, де автори, спираючись виключно на внутрішні документи TikTok, фактично заперечують висновки румунської розвідки — і при цьому наводять як альтернативну версію твердження про те, що кампанію нібито фінансувала Національно-ліберальна партія Румунії. Ця версія не має верифікованого доказового підґрунтя і відтворює наратив, активно просуваний російськими інформаційними каналами після анулювання виборів. Звіт, покликаний документувати загрози демократії, у цьому епізоді мимоволі слугує нівелюванню доведеного факту російського втручання заради більш зручної ілюстрації власної тези.
Це не скасовує реальних питань щодо DSA. Але показує, наскільки складним є поле, де обидві сторони дискусії — і Брюссель, і його критики — схильні інструменталізувати конкретні кейси в інтересах власного наративу. ЄК відкрила офіційне розслідування проти TikTok за недостатню модерацію в період румунської кампанії — тобто скористалася ситуацією для розширення регуляторних повноважень. Конгрес у відповідь використав ту саму ситуацію, щоб підважити легітимність цих повноважень, — і в процесі знецінив доказову базу, що підтверджує реальність загрози, яку регулювання мало б відвертати.
Ця колізія і є суттю проблеми.
Екстериторіальний вплив і дискусія в США
Пандемія COVID-19 ілюструє динаміку поширення регуляторного впливу найбільш виразно. Починаючи з весни 2020 року посадовці ЄК — за явного відома президентки Комісії фон дер Ляєн — надсилали TikTok запити щодо планованих змін у практиках модерації контенту напередодні розгортання вакцинації. Втручання було превентивним, а не реактивним на виявлені порушення.
Коли у листопаді 2021 року в США розпочалася кампанія вакцинації дітей, Генеральний директорат ЄК з питань комунікацій запросив у TikTok інформацію про плани протидії "дезінформації щодо вакцинації дітей у США". Європейські регулятори формально запитували рішення щодо управління контентом стосовно американських дискусій про американську медичну політику — на американській платформі.
Варто зазначити задекларовану позицію ЄС: дезінформація у сфері охорони здоров'я на глобальних платформах створює системні ризики, що не визнають юрисдикційних кордонів. Занепокоєність Комісії цифровим суспільним здоров'ям є щирою. Демократична проблема полягає в тому, що підзвітність за ці рішення забезпечується перед Брюсселем, а не Вашингтоном — і що правова рамка, яка робить невідповідність витратною, діє лише в межах ЄС, тоді як її наслідки не обмежуються цими межами.
Штраф проти X і що він означає
У грудні 2025 року ЄК оштрафувала X на 120 мільйонів євро — суму, що наближається до стелі у 6% від глобального доходу за АЦП. Задекларовані підстави включали зміни у системі верифікації, формат архіву реклами та інтерпретацію платформою вимог щодо доступу дослідників до даних.
Суттєвий контекст: X вийшов із добровільного Кодексу з питань дезінформації, поновив акаунти, раніше заблоковані за політичні висловлювання, замінив сторонній фактчекінг системою Community Notes та відмовився виконувати глобальні накази про видалення контенту, видані іноземними юрисдикціями — зокрема Австралією і Бразилією.
Чи були конкретні правозастосовні дії пропорційними заявленим порушенням — це правове питання, яке зрештою розглянуть суди ЄС. Ширша закономірність є аналітично очевидною: механізм правозастосування АЦП створює значний важіль впливу на рішення щодо управління платформами, що виходять далеко за межі територіальної юрисдикції ЄС, — зокрема на рішення про те, як американські платформи модерують американські висловлювання.
Демократичні компроміси і що далі
"Європейський щит демократії", представлений фон дер Ляєн наприкінці 2025 року, розширює рамку АЦП: кризовий протокол для прискореного втручання в контент під час визначених надзвичайних ситуацій, розширення Кодексу з питань дезінформації на механізми верифікації особи, Європейський центр демократичної стійкості та скоординована мережа фактчекерів. Паралельно Комісія просуває директиву про криміналізацію "мови ненависті" у всіх державах-членах за єдиним визначенням, що охоплює цифрові комунікації в широкому розумінні.
Це не гіпотетичні пропозиції — вони є наступною фазою регуляторного проекту, що нарощує інституційну спроможність з 2015 року.
Звіт Конгресу — це перший випадок, коли внутрішня корпоративна документація стала доступною для публічного вивчення цього процесу. Те, що він показує, — не змова, а система: в якій легітимні регуляторні цілі — протидія маніпуляціям, захист виборчої доброчесності, обмеження медичної дезінформації — реалізовані через інструменти, чий обсяг, розмитість і екстериторіальні економічні ефекти або не були передбачені, або не вважалися визначальними.
Американська законодавча відповідь ще формується. Конгрес вивчає, чи достатньо існуючих правових механізмів для захисту американських платформ від іноземного регуляторного примусу щодо внутрішніх висловлювань. Складність реальна: ЄС має суверенне право регулювати свій цифровий ринок; американські компанії самі обрали роботу в межах цього ринку; і економічна взаємозалежність, що породжує ефект поширення, не може бути легко усунена.
Що є очевидним зі 140 сторінок внутрішніх корпоративних документів — це те, що рішення щодо управління контентом, які стосуються американських користувачів на американських платформах, систематично, а не випадково формуються під регуляторним тиском інституції, яку ці користувачі не обирали і перед якою не можуть вимагати підзвітності. Це проблема, що заслуговує на аналіз із належною їй точністю.


