Мошенники стали активно применять новую стратегию обмана граждан. Об этом сообщает ТАСС со ссылкой на пресс-службу Центробанка (ЦБ).
Как пояснили в регуляторе, речь идет об активном использовании финансовыми злоумышленниками так называемых дипфейк-технологий. Последние подразумевают методику синтеза изображения или голоса, основанную на искусственном интеллекте (ИИ).
Мошенники стали чаще использовать нейросети для более реалистичного видеоизображения человека, от лица которого злоумышленники совершают рассылки родственникам и друзьям потенциальной жертвы. Главной целью аферистов при подобной схеме является хищение денежных средств у доверчивых граждан.
В такого рода роликах фальшивый виртуальный герой похожим на своего прототипа голосом рассказывает о якобы своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. Ради хищения злоумышленники могут пользоваться дипфейками работодателей, сотрудников госорганов или известных личностей из сферы деятельности, в которой трудится потенциальная жертва. В ЦБ призвали граждан не поддаваться на подобные уловки.
Ранее в регуляторе рассказали о новом способе борьбы с телефонными мошенниками. Как уточнил представитель ЦБ, с 25 июля регулятор обязал российские банки блокировать денежные переводы, если перед совершением операции клиент получал подозрительные звонки или SMS-сообщения. Кроме того, под блокировку попадут трансакции, совершенные гражданами после продолжительных телефонных разговоров.