Оповещения
52 843

МВД предупреждает о схеме мошенничества с использованием дипфейков ИИ

Мошенники в России и Беларуси активно внедряют новые технологии – они используют искусственный интеллект для создания поддельных голосовых и видеообращений от имени близких, чтобы выманить деньги. Об этом рассказали в официальном телеграмм-канале «Крепость». 

Схема работает по отработанному сценарию: злоумышленники сначала получают доступ к аккаунту жертвы в соцсетях, изучают общение, а затем с помощью нейросетей создают реалистичный контент. ИИ может создать убедительный дипфейк всего за 10-15 минут.

«Взламывают аккаунт генерируют фото, видео и голос пишут от имени знакомого: «Срочно переведи деньги», «помоги, я в беде», «нужен код». И звучит это пугающе реалистично», – отмечается в материалах по кибербезопасности.

Эксперты подчеркивают, что мозг автоматически доверяет такой информации из-за узнаваемого голоса и изображения. Однако защититься можно, следуя простым правилам:

  1. Всегда перезванивайте на известный вам номер телефона, чтобы лично убедиться в просьбе.
  2. Задайте контрольный вопрос, ответ на который знает только настоящий человек (о личной встрече, деталях, неизвестных посторонним).
  3. Никогда не сообщайте коды подтверждения, пароли или данные банковских карт, даже если это просит «друг» или «родственник».
  4. Внимательно проверяйте видеосообщения – дипфейки часто имеют артефакты: неестественные тени, размытый контур лица или несовпадение движения губ со звуком.

Специалисты призывают проявлять бдительность и распространять информацию о новых схемах обмана, особенно среди пожилых людей, которые чаще становятся жертвами подобных атак.