Використання ШІ в шахрайських цілях: фахівці перерахували «схеми» зловмисників

Кіберзлочинці, безсумнівно, йдуть у ногу з часом, повною мірою впроваджуючи сучасні технології «в обробку» потенційних жертв, що лише дає змогу розширити методики обману.

Кіберзлочинець.

Фото - rbc.ua

Про те, що шахраї не тільки редагують голосові повідомлення з різних публікацій у соціальних мережах, таким чином створюючи підроблені звернення за допомогою ШІ (штучний інтелект), пише «НБН», посилаючись на матеріал iTECHua.

Одна з відносно популярних технологій наразі — «deepfake», коли штучний інтелект генерує доволі переконливе, але неправдиве зображення обличчя людини, яке можна «вставити» як у фото, так і у відео, і використати як компрометувальний матеріал проти потенційної жертви.

Крім того, застосовують підроблені запити до «списку контактів» як у соцмережах, так і в месенджерах — у 2023-му році, за допомогою імітації голосу, фактично викрали кошти з безлічі рахунків довірливих громадян.

Тобто насамперед, щоб не потрапити «на гачок» шахрая, рекомендується зв’язуватися з людиною безпосередньо, наприклад, голосом по мобільному зв’язку, та уточнювати її намір щодо прийняття грошового переказу, відмовившись від прийняття поспішних висновків і здійснення транзакцій після єдиного прослуханого повідомлення.

Раніше ми писали про те, що інвестувати в біткоїн стало набагато простіше.

Exit mobile version