Казалось бы, нам знакомы многие способы мошенничеств, однако аферисты продолжают придумывать все новые схемы обмана. Россиян предупреждают об очередном способе. В будущем мошенники смогут подделывать не только голосовые сообщение, но и в режиме реального времени начнут звонить по видеосвязи, а использовать они будут дипфейки. Об этом сообщил РИА Новости главный эксперт «Лаборатории Касперского» Сергей Голованов.
Уточним, дипфейк — это методика синтеза изображения, основанная на искусственном интеллекте.
Так, аферисты смогут звонить по видеосвязи и использовать при этом картинку с экрана, благодаря которой можно создавать изображение другого человека. Такой дипфейк будет повторять движения губ в реальном времени. Однако эксперт отметил, что такое станет возможным лишь через несколько лет. А распространяться дипфейки будут в мессенджерах. Поэтому владельцы кнопочных телефонов, а также те, кто не зарегистрированы в соцсетях, могут спать спокойно.
Напомнил Голованов и о тех мошенничествах, которые существуют сейчас. Злоумышленники используют голосовые сообщения. Они представляются якобы знакомыми потерпевшего и просят перевести деньги. Впрочем, до конца подделывать голосовые аферисты еще не научились. Распознать обман можно благодаря роботизированной интонации. Ну или лично позвонить знакомому.
Эксперт утверждает, что единственный способ защититься — проверять аккаунты, так как на слух распознать искусственный интеллект будет сложно.
Читайте также на ТОП Тверь:
Бдительная пенсионерка из Твери перехитрила мошенника и помогла его задержать.
Подпишись на Telegram-канал «ТОП Тверь»: мы публикуем актуальные новости в коротком формате.