Deepfake та voice spoofing: новий рівень шахрайства

09:00 8 липня 2025 р.

Діпфейк — це відео, зображення чи звук, що ніби як справжній, але фактично повністю згенерований або змінений за допомогою машинного навчання. Voice spoofing — це підроблення голосу іншої людини.

На тлі сучасних реалій штучний інтелект уже не просто технічний феномен, а інструмент повсякденного життя. Проте разом з корисними речами він несе й нові ризики. Серед них deepfake та voice spoofing. Ці слова немов з фантастичного фільму, але насправді - це вже реальність.

Діпфейк - це відео, зображення чи звук, який виглядає (чи чується) як справжній, але фактично повністю згенерований або змінений за допомогою машинного навчання. Спуфінг голосу працює схожим чином. Хтось вдає з себе іншого, просто копіюючи тон, тембр, інтонацію.

Актуальність теми очевидна - за перший квартал 2025 року фінансові збитки від діпфейків по всьому світу перевищили 200 мільйонів доларів. І це лише задокументовані випадки. Мої колеги з міжнародної групи підтвердили це під час нещодавнього аналізу великих інцидентів.

Що таке deepfake та voice spoofing?

Обидві технології базуються на штучному інтелекті, але працюють трохи по-різному.

Коли мова заходить про те, що таке діпфейк, маємо справу з зображенням чи відео, створеними штучним інтелектом на основі реальних даних. Наприклад, людина говорить або робить щось, чого насправді ніколи не було. Часто використовуються так звані GAN-мережі. Вони «вчаться» на великій кількості фото й відео, а потім самі створюють фейки, які важко відрізнити від оригіналу.

Voice spoofing - це коли хтось підробляє голос іншої людини. І не просто повторює інтонації, а створює нові фрази за допомогою аудіоданих або ШІ. Так можна зімітувати голос колеги, родича чи навіть когось із селебріті.

Для наочності:

Технологія

Як працює

Де може використовуватись легально

Deepfake

Зображення чи відео, змінене нейромережею

Кіно, дубляж, архітектура, наука, модна індустрія, реклама, журналістика, фотографія

Voice spoofing

Підробка голосу через ШІ

Дубляж фільмів, озвучення ігор, освіта, маркетинг, автоматизація, наука та дослідження

Звісно, є і приклади з реального життя, де ці технології служать на користь людству. Але коли та ж технологія використовується для того, щоб вкрасти гроші або дискредитувати особистість - тут вже інша історія.

Як шахраї використовують ці технології?

Кіберзлочинці полюбили нові інструменти. Іноді навіть базового досвіду достатньо, щоб створити «реалістичне» відео чи голос.

Наведу приклади:

  • Дзвінок до бухгалтерії компанії. Ніби справжній «керівник» просить терміново переказати гроші на певний рахунок. А це - аудіодіпфейк.

  • Псевдополітик у відео «пояснює», чому змінює свої погляди. Люди дивляться та вірять.

  • Голосове повідомлення в месенджері: «Це мама. У мене проблеми. Допоможи, синку...» - і гроші вже на чужому рахунку.

Всі ці випадки - спуфінг у дії. І найстрашніше, що часто достатньо 10-секундного запису, щоб навчити штучний інтелект підробляти голос.

Наслідки для суспільства та бізнесу

З такими найсучаснішими технологіями ми входимо в нову реальність, де вже не можна довіряти очам чи вухам.

Я, спеціаліст з кібербезпеки - Ярослав Гордійчук, бачу ось такі основні загрози:

  • Довіра до відео- та аудіоматеріалів знижується. Люди починають сумніватись навіть у правді.

  • Fake news debunker (системи або фахівці, які перевіряють факти на правдивість) не встигають за темпом фейків. Новини стають засобом впливу, а не джерелом інформації.

  • Бізнеси втрачають репутацію. Бренди - клієнтів. А у політиці - взагалі може все піти шкереберть.

На мою думку, це серйозний виклик, який торкається не лише кіберфахівців, а кожного з нас.

Методи захисту та виявлення

Не зважаючи на постійне вдосконалення технології deepfake, фахівці з кібербезпеки постійно знаходять нові методи боротьби з цим феноменом. Є способи виявляти підробки. Мій поглиблений досвід у сфері безпеки навчає бути уважним і мати потрібні інструменти.

Які існують технології:

  • Al Voice Detector - аналізує мікродеталі голосу, які важко скопіювати.

  • Детектори deepfake - вивчають аномалії в обличчі, русі очей, світлі.

Що варто знати кожному:

  • Якщо відео чи аудіо викликає сумніви, краще перевірити.

  • Варто звертати увагу на міміку, паузи в мовленні, освітлення.

  • Кібергігієна в пріоритеті. Не клацати на все підряд, не ділитись особистими відео/голосовими повідомленнями без особливої потреби.

На власному досвіді переконався, що навіть просте усвідомлення небезпеки вже захищає.

Як не загубитись серед фейків

Дезінформація стає дедалі витонченішою. Deepfake, voice spoofing, аудіодіпфейк - вже не майбутнє, а сьогодення. І якщо раніше здавалося, що це проблема з Голлівуду, то наразі постав виклик кожному з нас. Як розпізнати діпфейк, коли все виглядає так реалістично? Відповіді не такі вже складні:

  • Навчати близьких (і себе) критичному мисленню.

  • Використовувати перевірені методи сканування. Технічні засоби оцінки та контролю, подвійну автентифікацію.

  • Бути обережним у цифровому просторі. Не довіряти одразу навіть тому, хто за голосом начебто твій друг.

На практиці digital-захист не потребує складних налаштувань. Достатньо розвинути просту звичку ставити питання: «А чи справжнє це?». Головне не боятись технологій, а вміти ними користуватись.

Міноборони передає до війська майже 950 дронів-перехоплювачів на добу

У Львові перейменували дві вулиці

Суд продовжив тримання під вартою підозрюваному у вбивстві Андрія Парубія

П'ятниця на Львівщині буде сухою та теплою

Винищувач, ППО, радари. СБУ вразила на аеродромі Бельбек російської техніки на понад $200 млн

Уже п’яту добу на Львівщині тривають пошуки зниклого 63-річного чоловіка

У Стрию з пожежі у квартирі врятували чотирьох людей, серед них - одна дитина

40% українців хочуть залишитися в Польщі назавжди - дослідження

Рада підтримала перейменування копійки у шаг

Цьогоріч у Львові висадили майже 5,5 тисячі кущів та дерев

Чоловік, що зґвалтував 12-річного хлопчика у Львові, проведе 13 років за ґратами. Рішення Верховного Суду

Фастфуд чи ресторанна страва: як піца змінила своє обличчя

Через атаку росіян є знеструмлення у низці областей

Військовому з ампутаціями у ПриватБанку відмовили у банківській картці, бо нема рук

На Львівщині юнак на Audi зіткнувся з фурою

У ДТЕК показали наслідки удару по енергетиці на Одещині

У Львові визначили замовника робіт з облаштування Меморіалу військовим на Голосківському цвинтарі

На Лиманському напрямку українці знищили полк російської армії

На Львівщині - смертельне зіткнення легковика з мікроавтобусом

Вісьмох Героїв у четвер оплакує Львівщина

У порту Ростова підбили нафтовий танкер

Юрія Баранкевича зі Стрийщини відзначили нагородою «Золотий хрест»

На Львівщині росте захворюваність на скарлатину

Зеленський скасував стипендії спортсменам, які зреклися України

Конгрес США ухвалив масштабний законопроект про оборону, який включає підтримку України та Європи

Графіки відключення світла в областях 18 грудня

Госпітальєрку Ірину Цибух проголосили «Праведницею Польського саду». Посмертно

Трьом молодим науковцям Львівської політехніки присуджено премію Верховної Ради за 2025 рік

У ЛМР спростували оголошення про продаж гробівця на 10 місць на Личаківському цвинтарі

У Польщі судитимуть ексміністра національної оборони

2026 рік Росія готує як рік війни - Зеленський

У лікарні Святої Анни у Львові в суботу можна пройти обстеження в гінеколога та зробити УЗД

Укренерго попередило про відключення світла 18 грудня. Два графіки

Інвестори не готові вкладати кошти в енергетичну інфраструктуру через її багатомільярдну заборгованість

21 грудня у Львові відбудеться різдвяний ярмарок з мистецькою програмою

На кордоні у Краківці та Шегинях автомобільні затори

Усі громадяни України +40 років з 1 січня зможуть безоплатно пройти комплексне медичне обстеження

Почесні державні нагороди отримали на Львівщині батьки, діти, брати й сестри 38-ми полеглих військових

Дмитро Ткачов, Юрій Савка, Ростислав Харін. Церемонія прощання на площі Ринок у четвер

У Львівській області відкоригували списки об’єктів критичної інфраструктури