Що таке deepfake і як з ним боротися? Технічні хитрощі не допоможуть людям, якщо вони вірять в фейки, що відповідають їхнім настроям
Ми живемо в світі, де тобі можуть показати відео, на якому ти робиш якісь неприпустимі речі – і ти знаєш, що їх не робив. І можуть дати прослухати аудіо, де ти говориш те, що насправді ніколи не говорив. І ти навіть не можеш зрозуміло пояснити: твій голос там звучить?
Ціла купа компромату (буквально на кожну більш-менш відому особу) висипається на нас з соцмереж та інтернет-ресурсів, пише Укрінформ. І він настільки якісно складений, що у рядового користувача, глядача і слухача навіть думки не виникає, що це фейк. Адже перед тобою аудіо або відео-документ – як же йому не вірити?
Але все-таки – це фейк. «Deepfake». Вікіпедія так пояснює цей нещодавно з’явився термін: «синтез слів «глибинне навчання» і «підробка», методика синтезу зображення, заснована на штучному інтелекті. Вона використовується для з’єднання накладення існуючих зображень і відео на вихідні зображення або відео».
Самим знаменитим фейковим відео (далі – deepfake) стало сфальсифіковане виступ Барака Обами, де він обзивав Дональда Трампа засранцем.
- Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?
Мільйони людей зайшли на YouTube послухати слова президента, яких той ніколи не говорив. Ніякого скандалу не було, тут же в кадрі з’явився режисер Джордан Пив, автор підробки, який пояснив, що цієї творчої витівкою він спробував привернути увагу до цифрової дезінформації. Треба сказати, що йому вдалося. Навчитися користуватися програмами та редакторами, створюють ось такі відео, не складе праці користувачеві Інтернету. Про революції фальсифікацій стали писати не тільки в технічних журналах.
Ще одним хрестоматійним прикладом глибинного фейку стала ситуація, коли Міністерство оборони Росії «довело» співпраця США з ІГ з допомогою скріншота з комп’ютерної гри. У 2017 році Міноборони РФ опублікувало кілька постів в Твіттері і Фейсбуці, де нібито містилося «незаперечне підтвердження» співпраці США з бойовиками ІГ. Насправді – це був обрізаний скріншот з промо-відео до мобільній грі «AC-130 Gunship Simulator», а також відео роботи ВПС Іраку за бойовикам ІГ в 2016 році.
Науково-дослідницьке агентство при Міноборони США протягом останніх двох років працює над створенням технології, яка б могла виявляти подібні високотехнологічні підробки. Медіа пишуть, що на наукові розробки було витрачено близько $68 млн.
Аудіо та видеопрослушка стають чимось звичайним, медіа часто поспішають їх поширити, не заглиблюючись у те, чи може це бути правдою. Чи зможемо ми взагалі з часом довіряти аудіо та відеозаписів? Чи можна їм довіряти правоохоронці, враховуючи, як дешево зараз їх сфальсифікувати. Як системно боротися з дипфейками, які стануть нормою життя?
Ці питання ми поставили відомим українським фахівцям з інформаційної безпеки, учасникам нещодавно пройшла 15-ї міжнародної конференції з кібербезпеки UISGCON.
DEEPFAKE СТАВЛЯТЬ ЦІКАВІ ЗАВДАННЯ ПЕРЕД ВИРОБНИКАМИ ТЕХНІКИ
Кирило Гобреняк, спеціаліст з інформаційної безпеки:
— Поняття deepfake з’явилося нещодавно. Нам можуть передати зображення людини – і він говорить те, чого раніше ніколи не говорив, візуалізує для нас те, чого не відбувалося.
Тут цікава задача – ідентифікувати пристрій, з якого нібито велася компрометуюча запис. Казав чи не казав цей чоловік оприлюднений і компрометуючий текст – тут можливий лише один відповідь. І отримати (підтвердити або спростувати) його допоможе інформація: з цього пристрою велася ця запис?
Зрештою, в сучасних реаліях пристрій може унікальним ключем підписувати файли. І таким чином достовірність запису буде в якійсь мірі гарантувати те, що воно зроблено саме цим пристроєм. Я думаю, що це цікавий виклик для виробників камер – подумати над системою ключів (технологіями), які дадуть таку опцію їх продукту.
У банку ми підписуємо ЕПЦ як доказ завдяки нашому ключу. Точно також на камері повинна бути можливість підпису знятого з неї відеоматеріалу, який буде доводити, що цей матеріал знятий тільки з цієї камери. І тоді дипфейк не пройде. Як би сама камера доводить, що саме з неї був знятий матеріал.
- Чому головним розповсюджувачем фейків є ми самі
ГЛИБИННИЙ ФЕЙК НЕ ВИТРИМАЄ ЖОДНОЇ ГЛИБИННОЇ ПЕРЕВІРКИ ІНФОРМАЦІЇ
Андрій Логінов, фахівець з інформаційної безпеки:
— Я думаю, що питання дипфейков знімається, якщо виробити звичку диверсифікувати інформацію. Отримали носій з якоюсь інформацією – і тут же почали шукати іншу, яка допоможе скорелювати її з відеозаписом.
Наприклад, ми знаємо, що в даний проміжок часу відбулося (могло статися) подія, але ми не впевнені: сталося воно чи ні. Набираємо статистично значуща кількість інформації з різних джерел – і порівнюємо.
Підробити всі джерела одночасно дуже важко, а іноді неможливо. Якщо випало невідповідність інформації, ми розуміємо, що її треба перевіряти більш глибоко.
Давайте розглянемо приклад. Є перехрестя, де висить 12 камер, сталося зіткнення, поліція приїхала, зняла відео з камер і зафіксувала. Як нам переконатися, що це не 3D-модель, не той же фейк? Беремо інші джерела, інформацію очевидців, відео з камери, яка встановлена не на перехресті, а у мешканця.
Дійсність тієї чи іншої інформації завжди може підкріпити оперативна інформація. Системно боротися з дипфейками не потрібно, потрібно мати методики, підходи для того, щоб розуміти – модифікована чи, «підготовлена» спеціальним чином отримана інформація.
При наявності інструментарію і додаткових джерел інформації ми завжди зможемо підтвердити або спростувати події з імовірністю 70 або 90 відсотків.
Наприклад, якщо є канал компрометації, і відео, або аудіозапис було скомпрометовано, то 70 відсотків нам недостатньо для того, щоб прийняти те чи інше рішення для оперативно розшукових дій або повірити, що це правда. А 89 відсотків – це достатньо. Якщо у нас є достатня кількість інформації, то ми можемо вірити і підписатися під цим. Якщо ні, то можемо перевірити і не використовувати.
Мене з точки зору сьогоднішнього дня запитують, чи можна було перевірити достовірність записів, наприклад, касетного скандалу Леоніда Кучми і твердження, що запис вівся диктофоном? Важко. Оскільки був тільки одне джерело. Але якщо б я записав умовного Кучму або будь-якого іншого один-два-три рази, мав семпли голосу, прогнав через алгоритм зіставлення, і отримав 89% достовірності, то при наявності другого свідка або джерела інформації можна було б довіряти їй більше.
Чи можу я уявити, що персонажем фейку можуть стати значущі особи держави. Можу. Але, знову ж таки, тут постає питання відповідальності журналістів або інших людей, які поширюють це. Так, зараз світ змінюється, і нікому і нічого не можна довіряти. Але він просто диктує нам нові підходи до інформації. Підхід недовіри потрібно культивувати у всіх.
Я Б НЕ ПЕРЕБІЛЬШУВАВ ЗНАЧЕННЯ DEEPFAKE
Сергій Дяченко, експерт у сфері кібербезпеки:
— Я б не перебільшував значення deepfake. Хоча в цій темі перетинаються найрізноманітніші напрямки. Киберсоставляющая, цифрова дезінформація та інформаційна війна як поширення фейкового контенту. Плюс – оперативно-розшукова діяльність та її скромна оперативно-технічна складова.
Переконаний, що оперативна робота живого фахівця, яка базується на правильній роботі з агентурою, дезавуює будь-які спроби створити і розкрутити deepfake. Нерозумно як надмірно сподіватися на техніку, так і дуже її боятися.
Будь-яку відео – і аудіозапис можна підробити – це правда. Але так само легко можна довести, що вона підроблена.
Оперативна робота – основа достовірності, а все інше – технічне забезпечення. Будь-які модні програми та графічні редактори – лише доповнення. Однієї тільки органолептикою можна подивитися: бреше або не бреше даний персонаж. Емоції, поведінкові реакції (коли йому закидається розбурхує інформація), стереотипи кажуть правду більше, ніж подкинутое відео. Куди більший виклик – змусити людей працювати.
Повірте мені, як людині, у якого є розкриті кримінальні справи і по лінії корупції, та за розголошення держтаємниці. Якщо б я займався виключно технікою, то жодного з цих результатів не було. Техніка – підмога, інструмент. За будь-якою технікою, будь-якою дією стоїть людина. А проти людини може працювати лише людина.
Звичайно, журналісти підігрівають скандали з прослуховуванням, які в свою чергу тягнуть питання достовірності опублікованих записів. Журналістика – на те й журналістика, щоб загострювати і підігрівати, але якщо мова йде про якості, то тут потрібно перевіряти.
У ЯКИЙСЬ МОМЕНТ ФОТОГРАФІЇ І ВІДЕО МОЖУТЬ НЕ ПРИЙМАТИСЯ В СУДІ
Аліса Міллер, програміст, фахівець з інформбезпеці:
— Згодна, що deepfake – це виклики сьогоднішнього дня і для користувачів, і для урядів. І для виробників, які вже намагаються відповідати на ці виклики. Компанія Adobe вже працює в цьому напрямку: вони випустили оновлену версію фотошопу, яка дозволяє дізнатися – чи відео або зображення відредаговано, і якщо так, то яка саме частина редагувалася.
Мені здається, що в Україні це дуже велика проблема. Тому що фейкові відео не мали б ніякого ваги, якщо б їх не публікували ЗМІ, які таким чином їх легалізують.
Загалом-то, перевірка інформації і так має бути стандартом, але зараз це стає просто надважливим! Україна, на жаль, не готова до таких проблем.
Всім пишуть і знімають потрібна кибергигиена. Не зберігаючи особисті дані, ви підставляєте під загрозу тих, чиї контакти у вас є. Не перевіряючи інформацію та публікуючи її, ви підставляєте під загрозу ваше видання.
Весь персонал держструктур повинен проходити навчальні тренінги, в тому числі за повторну перевірку фактів.
Але проблема ризикує стати системною, тому що в якийсь момент фотографії і відео можуть не прийматися в суді. Тому робота з протидії deepfake – це і проблема користувачів, і проблема держави, і проблема виробників. Штучний інтелект потрібно розвивати не тільки у бік створення фейків, але і для їх виявлення.
DEEPFAKE: РОЗВИВАТИ ПОТРІБНО НЕ ТІЛЬКИ ШТУЧНИЙ ІНТЕЛЕКТ, АЛЕ Й ВЛАСНЕ КРИТИЧНЕ МИСЛЕННЯ
Олексій Барановський, викладач КПІ:
— Deepfake, образно кажучи, – чорний кіт, який приплив раптово, але видно було здалеку.
Будь інструментарій спочатку використовується тими, ким він замислювався з метою, для якої призначався. Потім розширюється коло тих, хто користується і цілі, для яких використовується. Свого роду цифрова діалектика.
У 2011-2012 роках наші недруги стали масово використовувати информоперации. Для їх проведення залучали цілі батальйони людей – для створення і просування неправдивого контенту. Але потім до такої інформації виробився певний імунітет. З’явилися способи швидко перевіряти інформацію. Постало завдання, як робити фейки, щоб вони були правдоподібними.
Чому вірить людина? Того, що здається правдою. Він починає вірити фейку, коли його очікування тут же підтверджуються, у тому числі відео – та аудіозаписами. Правильно підготовлений фейк (скріплений «відео», «аудіо-підтвердженнями») відповідає настроям.
Щоб глибоко розбиратися в фейках, слід розвивати критичне мислення, тому що більшість людей вірить у те, що просто здається їм правдою.
Звучать пропозиції про те, щоб подумати над цим виробникам. Але будь-які водяні знаки не вирішать проблему готовності та бажання людей вірити в те, що підживлює їх настрою.
Розвиток штучного інтелекту не вирішить проблему розвитку інтелекту і мислення у людей – споживачів фейків.
Автор: Лана Самохвалова, Київ; УКРІНФОРМ
Події та кримінал