МВД предупреждает о схеме мошенничества с использованием дипфейков ИИ
Мошенники в России и Беларуси активно внедряют новые технологии – они используют искусственный интеллект для создания поддельных голосовых и видеообращений от имени близких, чтобы выманить деньги. Об этом рассказали в официальном телеграмм-канале «Крепость».
Схема работает по отработанному сценарию: злоумышленники сначала получают доступ к аккаунту жертвы в соцсетях, изучают общение, а затем с помощью нейросетей создают реалистичный контент. ИИ может создать убедительный дипфейк всего за 10-15 минут.
«Взламывают аккаунт – генерируют фото, видео и голос – пишут от имени знакомого: «Срочно переведи деньги», «помоги, я в беде», «нужен код». И звучит это пугающе реалистично», – отмечается в материалах по кибербезопасности.
Эксперты подчеркивают, что мозг автоматически доверяет такой информации из-за узнаваемого голоса и изображения. Однако защититься можно, следуя простым правилам:
- Всегда перезванивайте на известный вам номер телефона, чтобы лично убедиться в просьбе.
- Задайте контрольный вопрос, ответ на который знает только настоящий человек (о личной встрече, деталях, неизвестных посторонним).
- Никогда не сообщайте коды подтверждения, пароли или данные банковских карт, даже если это просит «друг» или «родственник».
- Внимательно проверяйте видеосообщения – дипфейки часто имеют артефакты: неестественные тени, размытый контур лица или несовпадение движения губ со звуком.
Специалисты призывают проявлять бдительность и распространять информацию о новых схемах обмана, особенно среди пожилых людей, которые чаще становятся жертвами подобных атак.

Комментарии
Добавление комментария
Комментарии