Як видеофейки стали серйозною загрозою і об’єднали суспільство

Проблема Deepfake (глибинних фейків) – порівняно нова для інтернету і медіасередовища. Особливо якщо співвідносити її з потоком традиційних фейкових новин, від якого страждає медіапростір вже більше п’яти років. Перші приклади реалізацій Deepfake-відео були опубліковані на сайті Reddit в кінці 2017 року, в 2018 році в Мережі з’явилися перші видеоподделки з відомими людьми (Барак Обама, голлівудські актори).

Наприкінці 2018 року автори «прогнозу песиміста» з Bloomberg назвали Deepfake-відео однією з проблем, здатною серйозно вплинути на майбутнє, в тому числі і на глобальну політичну ситуацію в світі, пише видання StopFake.

У 2019 році Deepfake-відео привернули увагу експертів з ІТ-сфери і чи не вперше за історію боротьби з фейками проблему Deepfake стали намагатися активно вирішувати і вчені, і великі технологічні компанії.

Deepfake настільки вразили всіх і фахівців по фактчекингу, і медиаэкспетов, і звичайних людей, що серйозність цієї проблеми ніхто не піддавав сумніву.

У боротьбу з Deepfake стали інвестувати чималі гроші і за 2019 рік було створено безліч інструментів, які з тим або іншим успіхом навчилися визначати Deepfake. Ці інструменти – це поки лише тестові зразки, які тим не менше з досить високою ймовірністю знаходять видеоподделки. Сам принцип створення Deepfake такий, що боротьба з цим видом фейків ускладнена використовуваної при їх створенні технологією. Іншими словами, Deepfake – один з найбільш технічно досконалих на сьогоднішній день видів фейків, тому їх пошук та ідентифікація – це складне завдання в технічному плані.

  • Що таке deepfake і як з ним боротися? Технічні хитрощі не допоможуть людям, якщо вони вірять в фейки, що відповідають їхнім настроям

З одного боку, проблема Deepfake-відео ускладнюється наближенням виборів президента США в 2020 році. Аналітики вважають, що фейкові новини в цілому, так само як і фейкові відео зокрема стануть для соціальних мереж Facebook серйозною проблемою в 2020 році. Якщо фейки 2016 року були прикладами примітивної маніпуляції і спробою емоційно зіграти на болючих темах американського суспільства, то Deepfake зразка 2020 року можуть перетворитися в потоки брехні і компромату, законно рекламованого у соцмережі, тим більше, що політика Facebook щодо політичної реклами буде цьому сприяти (докладніше ми про це розповімо в одній з наших наступних статей).

Додатковою проблемою, що ускладнює боротьбу з Deepfake, є зміна способів медіаспоживання в сучасному інтернеті. Все більше людей, особливо молоді – представників так званого покоління Z – воліють відео тексту. Частка інтересу до Facebook практично порівнялася з часом, який витрачається на YouTube.

Це означає зростання потенційної аудиторії Deepfake-відео. А в умовах швидкості розповсюдження контенту в сучасних соцмережах ця проблема стає більш ніж актуальною для всіх.

Експерти порівнюють поява Deepfake-відео зі зломами комп’ютерів і комп’ютерних мереж, від яких страждає і бізнес, і уряду в останні 15 років. Однак завдяки Deepfake-відео світ стикається з новим аналогом таких зломів, з новим проявом кібервійни – «зломом людей в соціальних мережах, який поширює ідеї», — пояснює проблему Пітер Сінгер, стратег з кібербезпеки.

Ненсі Пелосі, Facebook і “глибока” проблема “глибинних” фейків

В кінці травня на YouTube, а потім і на Facebook з’явилася і з величезною швидкістю поширилася відеозапис, на якій спікер Палати представників США Ненсі Пелосі нібито виглядає п’яною. Кількість переглядів відео наблизилося до 3 млн разів, а кількість репостов перевищила 50 тис (на даний момент пост недоступний).

Журналісти The Guardian порівняли оригінал і опублікований ролик і прийшли до висновку, що це підробка.

Аналіз, який провели журналісти The Washington Post показав, що відео було навмисно сповільнено на 75%. Це призвело до сильного спотворення мови і висоти голосу і створювало враження, що Пелосі була п’яна.

Тим не менш, це не завадило багатьом відомим політикам, у тому числі Дональду Трампу прокоментувати скандальне відео, а сам Трамп опублікував ще одне відео, де Пелосі теж «затинається».

“PELOSI STAMMERS THROUGH NEWS CONFERENCE” pic.twitter.com/1OyCyqRTuk

— Donald J. Trump (@realDonaldTrump) May 24, 2019

З YouTube ролик і його копії були видалені. Спочатку адміністрація Facebook відмовилася видаляти відео, пообіцявши розібратися. Через 1,5 доби компанія повідомила, що знижує його пріоритетність видачі, бо його видалення буде цензурою, пізніше при спробі опублікувати відео компанія стала показувати повідомлення у тому, що цей ролик – це підробка.

Сама Ненсі Пелосі назвала Facebook «добровільним пособником втручання в американські вибори».

Як видно на даний момент, відео все ж було видалено зі сторінок Facebook, однак той факт, що соціальна мережа так довго реагувала на такий спірний контент, навіть при наявності непрямих доказів його підробленості, краще ніж що-небудь інше демонструє серйозність проблеми Deepfake-відео так і будь-яких інших підробок в цілому. Можна сказати, що небезпека Deepfake-відео – це проблема звичайних фейків, зведена в ступінь, а все це — завдяки скандальності контенту помножена на швидкість його поширення в соцмережі на тлі відсутності реакції з боку адміністрації Facebook.

Історія з Ненсі Пелосі – всього лише один приклад того, чому проблеми Deepfake в останній рік приділяється так багато уваги. У цій статті ми проаналізували, що змінилося і які з’явилися напрацювання, спрямовані на боротьбу з «глибинними» фейками.

  • Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?

Deepfake-статистика: проблема для всіх і кожного

Існує думка, що прямими жертвами фейкових новин є політики, які втрачають виборців. Однак Deepfake – це приклад технології, яка може торкнутися буквально всіх і кожного. Згадаймо, що Deepfake з’явилися як інструмент порномести – додавання зображення звичайної людини в порно-відео. Ситуація не змінилася і сьогодні. За даними дослідників з компанії Deeptrace, більше 95% Deeptrace-підробок – це порно-відео, а героями таких роликів в 99% є жінки.

У цьому ж дослідженні наголошується, що за останні півроку кількість Deepfake-відео подвоїлося в порівнянні з минулим роком і налічує вже понад 14,5 тисяч відеороликів. Цікаво, що 2% з них містять корпоративні секрети. І є вже приклади Deepfake-підробок, які успішно застосовувалися для виманювання грошей у компаній, співробітники якої були впевнені, що шлють гроші контрагенту, хоча насправді вони їх перевели шахраям.

Чому проблема Deepfake складніше, ніж здається

Deepfake-відео є результатом роботи GAN – генеративно-змагальної нейроной мережі (generative adversarial network). Ця мережа складається з двох нейромереж, перша займається тим, що генерує фейк, а друга його визначає. Якщо друга виявляє фейк, перша відкидає створений нею варіант або вдосконалює його до тих пір, поки не створить практично досконалий фейк.

Це означає, що застосування аналогічних нейромереж для ідентифікації Deepfake-відео рано чи пізно зіткнеться з алгоритмом GAN і фактично навчить його обходити створений алгоритм визначення фейків, так само, як друга нейромережа навчає першу. Таким чином, детектор визначення Deepfake-відео по суті створює нові Deepfake-відео, які неможливо виявити. Цей парадокс вчені назвали дилемою сучасної області штучного інтелекту, що є на сьогоднішній день інструментом з відкритим вихідним кодом, тобто доступним для всіх бажаючих.

Як Google, Facebook, Twitter борються з глибинними фейками

Сучасний соціальний інтернет – ідеальне місце для поширення скандальних відео. Саме тому і Google і Facebook зайнялися боротьбою з Deepfake.

У вересні 2019 року компанія Google зібрала базу даних, в яку увійшли 3 тис відеороликів. Ця база даних буде використана для визначення фейкових відео. При створенні бази даних компанія використала найбільш відомі публічні алгоритми створення Deepfake.

Однак, коли співробітники компанії Dessa вирішили перевірити роботу цього датасета (бази даних), то виявилося, що він у 40% випадків не зміг вирішити поставлену перед ним задачу. Головний висновок, зроблений фахівцями, був таким: «Кілька сотень синтетичних відео недостатньо для вирішення проблеми, тому що вони необов’язково поділяють характеристики підроблених відео, що поширюються сьогодні, а тим більше в найближчі роки».

Компанії Facebook, Amazon і Microsoft (і ряд провідних американських університетів) вирішили провести конкурс Deepfake Detection Challenge на кращий спосіб визначення Deepfake-відео. Компанії готові інвестувати у великі призові, наприклад, Facebook планує виділити $10 млн.

Вже на початку січня Facebook повідомила про власні заходи боротьби з deepfake-відео. Компанія заявила, що буде видаляти відеоконтент, відредагований інструментами на основі нейронних мереж і штучного інтелекту. Крім того, в повідомленні в блозі компанії сказано, що до підробленим контенту вона віднесе такий, в якому містяться слова, не сказані героями відео в реальному житті. У Facebook пообіцяли вивчити контент, генерований ШІ, так само як і продовжити пошук їх авторів і усвідомити глобальну мету зусиль таких людей.

  • Чому головним розповсюджувачем фейків є ми самі

Дуже позитивно, що компанія озвучила чіткі критерії відео, які будуть видалятися. До таких відео належать ролики, які були відредаговані або синтезовані не з метою поліпшення якості, а з метою введення в оману аудиторії відео. Іншими словами, якщо відео подправлено, щоб глядачі отримали кращу картинку або звук, це не буде проблемою. Якщо ж у вуста героя ролика вкладені чужі слова, це відео буде видалено. Другий критерій – якщо відео стане предметом роботи нейронних мереж і штучного інтелекту.

У той же час, до цих критеріїв додається пояснення – компанія не буде реагувати на пародійний контент або сатиру, які «були відредаговані для того, щоб пропустити або змінити порядок слів». Це уточнення говорить про те, що компанія не буде реагувати на маніпулятивний контент. І, найімовірніше, згадане вище відео з Ненсі Пелосі не підлягає видаленню згідно з оновленим критеріям.

Таке оголошення з боку Facebook – це, безумовно, крок вперед. Однак потрібно розуміти, що рішення було озвучено за кілька днів до слухань в Конгресі США з приводу дезінформації і фейків.

Тим не менш, у новій anti-deepfake-політики Facebook є ще один позитивний момент – вона буде застосовуватися як до звичайних, так і до рекламним повідомленням.

Між тим, нові правила Facebook деякі експерти називають напівзаходами, стверджуючи, що «Політика Facebook не зачіпає ключове питання про те, як їх платформа використовується для поширення дезінформації, а швидше про те, наскільки професійно ця дезінформація створюється».

Twitter оголосила про те, що планує внести зміни в свою політику роботи з даними і заборонити використання «будь-якого фото, аудіо або відео», яке було значним чином змінено. Це ж вимога буде стосуватися Deepfake-відео. Компанія визначає Deepfake як «будь-яке фото, аудіо чи відео, яке було значно змінено або створено таким чином, щоб вводити людей в оману або змінювати його первісне значення». Анонс був зроблений у вересні, а в листопаді компанія представила чернетка нової політики щодо фальсифікацій, публікуються на її платформі.

Deepfake-відео в майбутньому

Швидкість, з якою світ дізнався про те, що таке Deepfake-відео, вражає і експертів, і пересічних людей. Саме тому боротьба з Deepfake не може обмежитися лише створенням автоматичних інструментів і роботою фактчекеров. Без підтримки соціальних платформ, а може і держав, які змушені реагувати на Deepfake-відео в законодавчому полі, ця боротьба напевно буде програна і так звані «прогнози песиміста» можуть стати реальністю.

Автор: Надія Баловсяк; StopFake

Події та кримінал