О том, что мошенники не только редактируют голосовые сообщения из различных публикаций в социальных сетях, таким образом создавая поддельные обращения с помощью ИИ (искусственный интеллект), пишет «НБН», ссылаясь на материал iTECHua.
Одна из относительно популярных технологий на данный момент — «deepfake», когда искусственный интеллект генерирует довольно убедительное, но ложное изображение лица человека, которое можно «вставить» как в фото, так и в видео, и использовать как компрометирующий материал против потенциальной жертвы.
Кроме того, применяются поддельные запросы к «списку контактов» как в соцсетях, так и мессенджерах — в 2023-м году, с помощью имитации голоса, были фактически похищены средства со множества счетов доверчивых граждан.
То есть, в первую очередь, чтобы не попасть «на крючок» мошенника, рекомендуется связываться с человеком напрямую, например, голосом по мобильной связи, и уточнять его намерение по принятию денежного перевода, отказавшись от принятия поспешных выводов и совершения транзакций после единственного прослушанного сообщения.
Ранее мы писали о том, что инвестировать в биткоин стало гораздо проще.