Туляков предупредили о «новогодних» схемах мошенников с нейросетями
В России аферисты под Новый год становятся наиболее активными, применяя для своих целей передовые технологии нейросетей, чтобы обмануть туляков и других жителей страны. Об этом сообщил изданию «Газете.Ru» Родион Кадыров, директор по ИИ-продукту FABULA AI .
Злоумышленники намного чаще стали прибегать к применению дипфейк-технологий для того, чтобы похитить финансовые средства, создавая даже видео на основе фотографий человека. По словам специалиста, не следует терять бдительность даже в том случае, если вы слышите в голосовом сообщении знакомый голос.
Видеосообщения в Telegram с лицом вашего друга или родственника легко может быть сделано при помощи технологии Face swap, сказал эксперт.
Также мошенники подделывают и голос родственников или близких, применяя визуальные и голосовые генеративные сети, используют технологии замены лиц (face swap), и применяют много других способов.
Стоит проверять все электронные письма и аккаунты в другом распространенном случае - как аферист представляется сотрудником банка. Стоит помнить, что техподдержка банков клиентам первая пишет крайне редко, и не переходить по ссылкам - они могут быть фишинговыми.
Если же мошенник отправляет вам видеокружок, следует обращать внимание на любой резкий поворот головы - может проявиться эффект «слетания» технологии Face Swap, а голос у "подделки" обычно монотонен и совсем лишен эмоций, поэтому попробуйте вызвать на них человека, которого, как вы считаете, хорошо знаете.
При подозрении на появление в поле зрения дипфейка сообщайте об этом в службу поддержки компании, чьи данные или имя было использовано мошенниками.