Эксперты предупреждают, что подделка личности через видео становится всё реальнее.
На фоне тестирования русскими банками удалённой идентификации клиентов через видеосвязь, специалисты предупреждают о растущих рисках подмены личности с помощью технологий deepfake. Злоумышленники уже способны создавать фейковые видеозвонки, «накладывая» чужие лица на изображение в реальном времени, чтобы получить доступ к банковским и другим чувствительным данным.
Как распознать подделку? Обратите внимание на следующие признаки. Во-первых, неестественная мимика — движения лица могут казаться не совсем «живыми». Во-вторых, несовпадение звука и видео — речь не синхронизирована с движением губ. В-третьих, нехарактерная интонация — голос может звучать неестественно. В-четвертых, размытые контуры и артефакты — особенно при поворотах головы или жестах. В-пятых, микроколебания цвета — «прыгающие» оттенки кожи или фона.
Эксперты по кибербезопасности рекомендуют использовать защищённые платформы видеосвязи, в том числе с шифрованием, двухфакторной аутентификацией и защитой от DDoS-атак.
Также повысить безопасность помогает интеграция с SIEM-системами, которые отслеживают поведение пользователя в реальном времени и могут мгновенно реагировать на аномалии.
Тем не менее, технологии deepfake продолжают развиваться, и полностью исключить риск обмана пока невозможно. Пользователям рекомендуется сохранять бдительность и не доверять подозрительным видеозвонкам, особенно если речь идёт о доступе к деньгам или личным данным.
Свежие комментарии