На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 001 подписчик

Свежие комментарии

  • ruslava Митькина
    Опять мигрантам  все с рук сойдет?Вандалы осквернил...
  • авдей НА
    Сейчас уже куда не посмотришь чурбанье одно вся средняя азия привыкли суки что Россия кормила строила есть страна обл...Алиев торговался ...
  • Marina Bubon
    Англичанка , известная дрянь, гадит всегда и везде. Это просто порода такая. Порода моральных уродов.Бл@@и, сэр(((Британский офицер...

Осторожно, дипфейк: как не стать жертвой обмана при видеозвонке

Эксперты предупреждают, что подделка личности через видео становится всё реальнее.

На фоне тестирования русскими банками удалённой идентификации клиентов через видеосвязь, специалисты предупреждают о растущих рисках подмены личности с помощью технологий deepfake. Злоумышленники уже способны создавать фейковые видеозвонки, «накладывая» чужие лица на изображение в реальном времени, чтобы получить доступ к банковским и другим чувствительным данным.

Как распознать подделку? Обратите внимание на следующие признаки. Во-первых, неестественная мимика — движения лица могут казаться не совсем «живыми». Во-вторых, несовпадение звука и видео — речь не синхронизирована с движением губ. В-третьих, нехарактерная интонация — голос может звучать неестественно. В-четвертых, размытые контуры и артефакты — особенно при поворотах головы или жестах. В-пятых, микроколебания цвета — «прыгающие» оттенки кожи или фона.

Эксперты по кибербезопасности рекомендуют использовать защищённые платформы видеосвязи, в том числе с шифрованием, двухфакторной аутентификацией и защитой от DDoS-атак.

Также повысить безопасность помогает интеграция с SIEM-системами, которые отслеживают поведение пользователя в реальном времени и могут мгновенно реагировать на аномалии.

Тем не менее, технологии deepfake продолжают развиваться, и полностью исключить риск обмана пока невозможно. Пользователям рекомендуется сохранять бдительность и не доверять подозрительным видеозвонкам, особенно если речь идёт о доступе к деньгам или личным данным.

 

Ссылка на первоисточник
наверх