Александра Шмигирилова предупреждает о росте поддельных аудио- и видеозаписей, создаваемых мошенниками с помощью нейросетей. Новые схемы взлома каналов в мессенджерах и фальшивые звонки угрожают россиянам, раскрывая их личные данные и финансовую информацию.
Количество поддельных аудио- и видеозаписей, создаваемых мошенниками с использованием нейросетей, будет продолжать увеличиваться.
Такую точку зрения в разговоре с «Лентой.ру» выразила эксперт Александра Шмигирилова.По словам Шмигириловой, злоумышленники все чаще прибегают к использованию искусственного интеллекта, чтобы создавать качественные фальшивые записи голоса, а также мимики и движений тела. Одним из распространенных методов является взлом популярного канала в мессенджере и размещение на нем дипфейк-видео. В таких видео мошенники выступают от лица владельца канала, призывая перейти по небезопасным ссылкам.
Эксперт подчеркнула, что уже в настоящее время некоторые люди не способны отличить подделку, а в будущем подобные технологии станут основой преступных схем. Искусственный интеллект используется также для автоматизации атак и ведения переписок с жертвами, что способствует выбору корректного тона общения.
Шмигирилова предупредила, что число фейковых видео, аудиосообщений и звонков будет продолжать расти. Она призвала русских быть готовыми к такому развитию событий. Часто успех мошенников связан с тем, насколько быстро они овладевают новыми инструментами, как, например, малоизвестные мессенджеры, в которых пользователи еще не ожидают обмана.
Мошенники также начали применять новаторскую схему с телефонными звонками, связанными с якобы доставленной посылкой с маркетплейса, сообщает NEWS.
ru. Сообщается, что под этим предлогом злоумышленники просят жертву назвать код из СМС, чтобы получить доступ к ее аккаунту и банковским данным.Ранее в Министерстве внутренних дел советовали русским не указывать полные личные данные в социальных сетях.
Свежие комментарии