Не верьте своим глазам!
Мошенники научились подделывать не только голоса, но и изображения, - об этом предупреждают эксперты Банка России.
Злоумышленники взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи человека и загружают их в нейросеть. Искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк — цифровой образ, максимально похожий на свой прототип.
Затем мошенники записывают ролик
с виртуальным двойником. Он говорит, что оказался в беде, например, серьезно
заболел, попал в аварию или лишился работы, и просит помочь ему деньгами. Потом они рассылают это фальшивое видео родным и друзьям своей жертвы и добавляют реквизиты для перевода денег.
Будьте бдительны
Абакан24 | Подписаться
Source: Абакан 24 | Новости
10 views
49
10
3 weeks ago 00:01:21 281
Мужской стиль | Men’s Style
3 weeks ago 00:05:39 1
Ирак, одна из стран бессовестно атакованная США. Не сосед, не угрожал. Атаковали, отобрали нефть и спокойствие, как нечего делат