
Мошенники начали использовать искусственный интеллект для создания дипфейк-видео с изображением родственников, чтобы выманить деньги у россиян. Об этом говорится в материалах МВД России, с которыми ознакомилось РИА Новости 27 августа.
"Что мошенники могут сделать с вашей фотографией? Например, оживить ее... Если однажды ваш родственник или товарищ пришлет видео и попросит занять деньги, то позвоните и поинтересуйтесь о целях платежа. Вероятно, его взломали преступники", — отмечается в материалах МВД. По данным ведомства, преступники применяют нейросети для генерации реалистичных видеороликов на основе обычной фотографии человека. В таких видео "аватар" будто бы говорит голосом знакомого и просит занять деньги.
Сотрудники МВД уточняют: мошенники сначала получают фотографию пользователя из соцсетей или мессенджеров, после чего с помощью нейросетей создают видеоролик, имитирующий мимику, голос, жесты и эмоции изображенного человека. Затем аферисты рассылают такие видео его родственникам и знакомым с просьбой одолжить деньги. МВД рекомендует всегда перезванивать отправителю и лично уточнять информацию, прежде чем переводить средства.
С 1 июня 2025 года в России действует новый закон о защите граждан от мошенников. Он предусматривает около 30 мер, направленных на борьбу с преступлениями в сфере IT. Так, сотрудникам органов власти, банков и операторов связи запрещено использовать мессенджеры для общения с клиентами. С 1 августа граждане получили возможность отказаться от рекламных смс-рассылок, а с 1 сентября смогут запретить спам-звонки и оформить самозапрет на покупку сим-карт через портал "Госуслуги".
Сохрани номер URA.RU - сообщи новость первым!
Будьте в числе первых, кто узнает все самые важные новости России и мира! Присоединяйтесь к подписчикам канала URA.RU в главном мессенджере России - MAX. Подписаться на URA.RU.
