С развитием технологий искусственного интеллекта (ИИ) повседневная жизнь стала проще и удобнее. Однако эти же технологии открывают новые возможности для мошенников, которые используют ИИ для создания всё более сложных и убедительных схем обмана.
Пугающие цифры: масштабы проблемы
Последние годы демонстрируют тревожное увеличение количества мошеннических действий с использованием современных технологий, особенно в сфере искусственного интеллекта. По данным Центробанка, только в прошлом году телефонные аферисты украли со счетов граждан России около 16 миллиардов рублей, а общий ущерб от преступлений в IT-сфере превысил 156 миллиардов рублей.
Чтобы лучше понять масштабы этой проблемы, приведем некоторые ключевые статистические данные:
- Ущерб от телефонных афер. Около 16 млрд рублей украдено в прошлом году.
- Общий ущерб от киберпреступлений. 156,5 млрд рублей за тот же период.
- Количество фальшивых звонков. Более 45 миллионов случаев зарегистрировано за первые пять месяцев 2024 года.
- Рост числа жертв. Значительное увеличение числа граждан, ставших жертвами мошенничества.
- Инновации в схемах мошенничества. Увеличение использования ИИ и дипфейков в аферах.
- Географическое распространение. Аферы становятся более распространенными не только в крупных городах, но и во всей стране.
- Целевые атаки. Повышение числа направленных атак на определенные социальные группы, такие как пенсионеры.
- Международный аспект. Участие российских мошенников в международных аферах также растет.
Эти цифры свидетельствуют о растущем влиянии технологий на методы мошенничества, что требует более активных действий со стороны правоохранительных органов и разработчиков безопасности. В условиях такой угрозы важно осознавать, что каждый может стать жертвой, и необходимо быть особенно бдительным и информированным.
Читайте также: Мошенничество с использованием «Госуслуг»: как аферисты обманывают пенсионеров через электронную подпись
Современные технологии на службе у мошенников
Использование искусственного интеллекта в мошеннических схемах становится всё более распространённым явлением. Технологии глубокого обучения и нейросети позволяют аферистам совершенствовать методы обмана, делая их более изощрёнными и трудно отличимыми от реальности. С помощью ИИ мошенники теперь могут создавать дипфейки, подделывать голоса, видео и даже тексты, имитируя реальных людей и события.
Наиболее заметные инструменты ИИ, используемые в мошеннических операциях:
- Дипфейки. Технология, позволяющая создавать поддельные видео- и аудиозаписи.
- Текстовые генераторы. ИИ может создавать убедительные и реалистичные тексты для фишинговых писем и сообщений.
- Синтез речи. Подделка голосов известных личностей или руководителей компаний для звонков жертвам.
- Анализ больших данных. ИИ анализирует большие объёмы данных для определения потенциальных жертв, основываясь на их поведении в интернете.
- Автоматизация процессов. Мошенники используют ИИ для автоматизации отправки массовых фишинговых и мошеннических сообщений.
- Имитация поведения. ИИ может имитировать человеческое поведение в социальных сетях, создавая иллюзию настоящего человека.
- Подделка документов. генерация поддельных документов, таких как паспорта, водительские удостоверения и банковские выписки.
Использование этих технологий позволяет мошенникам достигать высокой степени реалистичности в своих аферах, значительно усложняя задачу их распознавания и пресечения. Например, создание дипфейка требует всего лишь короткого видео или аудиозаписи оригинала, после чего голос и образ человека могут быть подделаны с удивительной точностью.
Знаменитости под прицелом
С развитием технологий искусственного интеллекта мошенники нашли новую мишень для своих афер — знаменитостей. Используя дипфейки и синтезированную речь, они создают убедительные фальсификации, которые могут вводить в заблуждение фанатов и даже самых близких людей известных личностей. Это позволяет аферистам не только обманывать, но и выманивать деньги под видом экстренной помощи или инвестиционных предложений.
Один из самых ярких примеров — случай с актёром Сергеем Безруковым, которому пришло аудиосообщение, якобы от его коллеги Константина Хабенского. В сообщении голос просил перевести денежные средства для помощи другому актёру. Безруков, сомневаясь в подлинности запроса, связался с Хабенским напрямую, что помогло предотвратить потерю средств.
Преподавателям одного из ведущих художественных институтов пришли видеосообщения в Telegram. В сообщениях содержалась аудиозапись, созданная с помощью технологии дипфейк, в которой, казалось, голос ректора института сообщал: «Вам позвонит куратор из ФСБ, возьмите трубку». Сотрудники института, зная о возможных мошеннических схемах и применении новых технологий, проявили бдительность и не стали выполнять указания, предупредив в итоге правоохранительные органы.
Подобные инциденты не ограничиваются только Россией. На международной арене также имели место случаи, когда под видом известных политиков и актёров распространялись фейковые видео и аудиосообщения. Так, злоумышленники имитировали голос президента одной из стран, призывая граждан поддержать финансово местные благотворительные организации. Позже выяснилось, что все собранные средства направлялись на счета мошенников.
Знаменитости также сталкиваются с созданием виртуальных двойников, которые могут появляться на публичных мероприятиях или даже участвовать в онлайн-встречах. Такие действия не только наносят урон репутации, но и могут привести к серьёзным финансовым потерям.
Важно всегда оставаться настороже и проверять любую информацию, полученную из внешних источников. Не доверяйте сомнительным звонкам и сообщениям, даже если они кажутся приходящими от знакомых лиц или официальных представителей. В эпоху ИИ решающую роль играет здравый смысл и бдительность каждого.
Статьи: