Острожно, DEEPFAKE Генеративные нейросети открыли бесчисленные возможности для инноваций
Острожно, DEEPFAKE
Генеративные нейросети открыли бесчисленные возможности для инноваций, но также стали инструментом для сложных мошенничеств.
DeepMind, подразделение Google, представило шокирующую статистику о том, как чаще всего злоупотребляют генеративным ИИ.
На первом месте — подделка личности (Impersonation):
Создание фальшивых личностей или создание убедительных дипфейков стало основной угрозой. Мошенники используют ИИ, чтобы убедительно изображать реальных людей и обманывать своих жертв.
2-4 места:
Следом идут различные мошеннические схемы, такие как создание фейковых личностей (Sockpuppeting), фальсификация и создание фальшивых учёток.
Эти способы использования ИИ также направлены на обман и манипуляцию, делая их крайне опасными в цифровом мире.
Вот некоторые из самых ярких примеров злоупотребления ИИ:
Фальшивые переговоры с министром
В 2019 году несколько европейских политиков были обмануты дипфейк-видео, в котором их убедили, что они ведут переговоры с несуществующим министром. Этот убедительный видеозвонок использовался для получения конфиденциальной информации.
Фальшивое выступление Барака Обамы
В 2018 году исследователи создали дипфейк-видео с бывшим президентом США Бараком Обамой, произносящим речь, которой он никогда не говорил.
Это видео было создано в рамках демонстрации угроз, связанных с технологией дипфейков.
Фальшивый телефонный звонок CEO
В марте 2019 года мошенники использовали ИИ, чтобы имитировать голос босса генерального директора одной немецкой компании, обманув его на перевод более $240,000 фальшивому поставщику.
Мошенничество с криптовалютой
В 2021 году мошенники использовали дипфейк-видео с Илоном Маском для продвижения мошеннических криптовалютных схем, что привело к значительным финансовым потерям.
Так 42-летний житель Германии Себастьян стал жертвой криптомошенников, которые действовали от имени Илона Маска.
Ожидая получить взамен удвоенную сумму, он перевел $560 тысяч в биткоинах.
Видео с Нэнси Пелоси
В мае 2019 года дипфейк-видео с Нэнси Пелоси, спикером палаты представителей США, стало вирусным, где она, якобы, запиналась на официальном мероприятии.
Видео было распространено известными личностями, включая Руди Джулиани, и собрало миллионы просмотров, распространяя дезинформацию.
Какие выводы?
Эти примеры подчеркивают растущую угрозу злоупотребления ИИ, особенно в сложных мошеннических схемах.
Хотя ИИ имеет потенциал для революции в индустриях, важно оставаться бдительными в отношении его темных сторон
220 views
57
8
8 months ago 00:01:28 1
#лайфхак Рабочий Deepfake на Google Colab в 1 клик
8 months ago 00:01:37 1
Всё, что нужно знать о мошенниках. DeepFake подделать лицо. Нейросеть и дипфейк вашего лица!
3 years ago 00:30:08 1
Москва лучше Сеула/Корейский гадкий утенок - Prince Lemon
5 years ago 00:00:43 17
Путин с Уолл-стрит/Putin of Wall Street/DeepFake Putin DiCaprio
5 years ago 00:01:39 49
Путин: Лицо со шрамом|Аль Капоне|DeepFake Tom Hardy Putin