Надія Баловсяк: У теперішньому інтернет-просторі подолати фейки неможливо

Про історію протистояння з фейками, маніпуляції у Фейсбуці та Інстаграмі, фактчек і екпертну думку журналістка, фахівчиня з цифрової безпеки та медіаграмотності, доцентка кафедри медіакомунікацій УКУ Надія Баловсяк, розповіла під час конференції «Digital-комунікації в епоху пост правди: реалії та виклики».

Фейки були завжди

У сучасному світі одним із проявів постправди є нівелювання експертного знання. Думка того, хто голосно говорить, важить більше, ніж експертна. Жовта преса з гучними заголовками і викриками “сенсація-сенсація” завжди продавалася активно. Колись давно журналісти зрозуміли простий принцип  чим емоційніший заголовок використаєш, тим краще продасиш. Цим прийомом не знехтували у пропаганді й нацисти, й під час війни в США між Північчю і Півднем.

Веб 2.0 і UGC

Коли з’явилися соцмережі та user generated content, поширення фейку стало стало миттєвим. Масмедіа одразу зафіксували закономірності  що скільки клікають та почали використовувати клікабельність як критерій для вибору тем публікацій.

Спостерігаючи за витоками даних із Facebook останні кілька років і поведінкою Марка Цукерберга, варто зауважити, що коли створювали цю платформу, ніхто не міг передбачити, що фейки стануть проблемою і що Facebook стане основним інструментом поширення фейкових новин. Алгоритми Facebook перехитрили сам Facebook.

Формула успіху фейку: популярність посту  це швидкість реакції користувачів + сенсація.

У 2017 агенція Bloomberg опублікувало прогноз песиміста, в якому прогнозувалися найгірші сценарії, що вплинуть на людство. Один із найгірших сценаріїв: фейки вб’ють соціальні мережі, люди не зможуть відрізнити правду від фейку. У 2018-ому згадок про фейки у переліку песимістичних сценаріїв не було. Або відбуваються позитивні зміни, або людство переймається більшими проблемами.

Простота поширення та віральність заголовків

У 2016 році почали говорити про те, що Facebook і Google стали інструментами поширення фейків. Згідно з одним з досліджень, було виявлено, що на фейки реагують краще, ніж на звичайні новини.

Перші реальні кроки у боротьбі з фейками здійснив Google. До видачі новин він додав помітку фактчеку, щоби користувач, який читатиме новини, мав впевненість, що це інформація з надійного джерела. Facebook такої помітки поки не ввів, лише бідкається.

У 2017 році почали активніше говорити про Facebook, як платформу, де активно публікується неправдива інформація. Тому розробники додали інструменти фактчекінгу. Якщо, до прикладу, ви публікуєте фейкову новину, то вам повідомляють про ненадійність. Втім, ця функція працювала не в усіх країнах, і не всюди коректно, а згодом зовсім зникла з інтерфейсу.

У цей час Google продовжував використовувати помітку “достовірне джерело”, хоча Facebook залишився основним інструментом поширення.

Фабрика тролів

У 2017 році світ дізнався про про фабрику тролів, що втручалася у вибори США 2016 року. Вони використали півмільйона акаунтів для поширення контенту маніпулятивного змісту і реклами не лише на Facebook, а і на Youtube. Окрім поширення шкідливого контенту створювалися групи, де відбувалися обговорення.

Наприкінці 2017 року ми змогли відстежити, хто проплачує політичну рекламу. Це була спроба продемонструвати, що певну політичну рекламу, як-от спрямовану на США, може проплачувати російська агенція інтернет-досліджень. Проте винахідливі “тролі” змогли обійти цей механізм, створивши компанію в США.

2018 рік, Cambridge Analytica  дані 87 млн акаунтів використали у виборах. Журналісти виявили, цей витік, акції Facebook обвалилися, Цукерберг відповідав перед сенатом США. Після цього Facebook пообіцяв найняти велику кількість модераторів, які б не лише спостерігали за чутливим контентом, як-от hatespeech, а й контентом, що може бути рекламним чи маніпулятивним.

На кінець 2018 року після виборів у США було помітно певні дії з боку Facebook. Щоб боротися треба знати з чим боротися, тому були визначені основні проблеми поширення фейку:

  • які акаунти належать не людям, а ботам, що поширюють фейки
  • блокувати поширення фейкових новин
  • ускладнити купівлю реклами

Facebook зробив war-room: віськова кімната, де 20 фахівців аналізуюють контент. Проте обіцяють, що кількість співробітників зросте до 20 тис (зокрема за рахунок модераторів), що можна вважати відволікаючим маневром від реальних проблем.

Упродовж останнього кварталу 2018 року співробітники Facebook деактивували 1,2 мільярда акаунтів. Мільярд фейкових акаунтів  це багато, тому почали з’являтися реальні кроки. Крім того, на Facebook є не лише фейковий, а й маніпулятивний контент. Наприкінці 2018 року в компанії  озвучили, що є три види фейків:

  • Маніпулятивний або сфабрикований контент
  • Контент, вирваний з контексту
  • Явно неправдивий контент

Наразі не зрозуміло, як ці критерії можуть працювати в умовах України, тому що офісу Facebook в Україні нема досі, проте віднедавна маємо відповідального policy-менеджера українського Facebook – Катерину Крук.

Наприкінці 2018 року Цукенберг, war-room і 20 тис модераторів зрозуміли, що потрібно вкладати кошти в боротьбу з фейками. Не лише за рахунок робочої сили, а й за допомогою нових інструментів, бо ручною працею нереально охопити глобально розгалужену систему. Віднедавна модераторам підвищили зарплату, бо робота й справді дуже важка.

Окрім Facebook великою проблемою став Whatsapp, через який також відбувалося поширення неправдивої інформації. В Індії, де цей месенджер є дуже популярним, почалися ритуальні вбивства через публікації фотомонтажів та дезінформації.

Instagram став ідеальною платформою для поширення візуальних мемів. Якщо проаналізувати охоплення кожного такого посту, то в Instagram воно набагато вище, а інструментів для обмеження шкідливого контенту немає.

В умовах, де алгоритм формує стрічку, а людина не може вплинути на алгоритм, де вони знають про нас надто багато, ми не знаємо як боротися з маніпуляціями, а з фейками й поготів. 

Записала Саша Багмет