Мошенники в России используют искусственный интеллект для создания дипфейков родных, прося занять деньги. МВД предупреждает: технологии создают видео с мимикой и голосом, вводя в заблуждение. Будьте бдительны, уточняйте цели неожиданных просьб о деньгах.
МВД России предупреждает о случаях мошенничества с использованием технологий искусственного интеллекта для создания дипфейков, сообщает РИА Новости.
В материалах, с которыми ознакомилось агентство, описывается, как злоумышленники применяют нейросети для преобразования фотографий в видео, которое может воспроизводить мимику, голос и жесты конкретного человека. В таких видео присутствует "аватар", который обращается с просьбой занять деньги.Затем мошенники рассылают полученные видеоматериалы родственникам и знакомым пострадавшего. В материалах МВД отмечается, что преступники способны "оживить" вашу фотографию. В случае, если вы получите видео от родственника или друга с просьбой о финансовой помощи, рекомендуется связаться с ними и уточнить цель платежа. Это может свидетельствовать о том, что их аккаунт был взломан преступниками.
Свежие комментарии