Новости Kaspersky спрогнозировал атаки мошенников с помощью видеосвязи

  • Автор темы BOOX
  • Дата начала

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
24.942
Репутация
10.975
Реакции
59.251
RUB
50
Мошенники в перспективе могут подделывать не только голосовые сообщения, но и атаковать россиян в соцсетях в реальном времени через видеосвязь при помощи технологии дипфейков.

Об этом заявил главный эксперт "Лаборатории Касперского" Сергей Голованов.

"Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет... Злоумышленники доберутся до этого через несколько лет", - сказал Голованов, добавив, что схема будет распространяться в мессенджерах.

1751569568_0:158:3079:1890_640x0_80_0_0_f69b6ed00eb503408d2e1129c23c125b.jpg.webp


Он отметил, что злоумышленники будут копировать аккаунты в мессенджерах и при звонке жертве не только генерировать голос, но и видеоизображение звонящего. Поскольку общение будет происходить в режиме реального времени, подозрений у жертвы может не возникнуть. Однако это перспективы не 2024 года, успокоил эксперт.

Голованов напомнил, что на текущий момент мошенники отправляют жертве голосовые сообщение в мессенджере от якобы знакомого или руководителя с просьбой перевести деньги, однако у этой схемы есть проблема — сгенерированные искусственным интеллектом сообщения "не адаптивные".
По его словам, жертва, которая слушает сообщения, понимает, что это сгенерированный голос. "Интонация, с которой идут все голосовые сообщения, роботизированна: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека", - пояснил Голованов.

В свою очередь, будущий мошеннический тренд будет сложно вычислить: "Старые схемы, например, "мама, переведи деньги, я в тюрьме", играют феерическими красками, и распознать, что это не тот человек, становится очень сложно". Эксперт считает, что единственный способ, благодаря которому это можно сделать — проверка аккаунта. На слух же у жертвы распознать ИИ не получится.


 
Сверху Снизу