Использование ИИ в мошеннических целях: специалисты перечислили «схемы» злоумышленников

Киберпреступники, несомненно, идут в ногу со временем, полной мерой внедряя современные технологии «в обработку» потенциальных жертв, что лишь позволяет расширить методики обмана.

Кіберзлочинець.

Фото - rbc.ua

О том, что мошенники не только редактируют голосовые сообщения из различных публикаций в социальных сетях, таким образом создавая поддельные обращения с помощью ИИ (искусственный интеллект), пишет «НБН», ссылаясь на материал iTECHua.

Одна из относительно популярных технологий на данный момент — «deepfake», когда искусственный интеллект генерирует довольно убедительное, но ложное изображение лица человека, которое можно «вставить» как в фото, так и в видео, и использовать как компрометирующий материал против потенциальной жертвы.

Кроме того, применяются поддельные запросы к «списку контактов» как в соцсетях, так и мессенджерах — в 2023-м году, с помощью имитации голоса, были фактически похищены средства со множества счетов доверчивых граждан.

То есть, в первую очередь, чтобы не попасть «на крючок» мошенника, рекомендуется связываться с человеком напрямую, например, голосом по мобильной связи, и уточнять его намерение по принятию денежного перевода, отказавшись от принятия поспешных выводов и совершения транзакций после единственного прослушанного сообщения.

Ранее мы писали о том, что инвестировать в биткоин стало гораздо проще.

Exit mobile version