Если вам кажется, что вы обладаете эталонными знаниями в области цифровой грамотности, и робот вас обмануть не сможет – спешу вас разочаровать. По мнению экспертов, жертвами мошенников становятся наиболее уверенные в своих знаниях люди. А поданным аналитиков банка ВТБ, на уловки мошенников в интернете чаще всего попадаются мужчины трудоспособного возраста. Причем среди жертв кибер-аферистов больше всего граждан в возрасте от 35 до 39 лет. На что именно стоит обратить внимание, дабы не пополнить печальную статистику – читайте в материале.

С 50-х годов прошлого века по сей день, искусственный интеллект продолжает развиваться и все больше приближается к человеческому, а его возможности становятся более доступны. В связи с этим, воспользоваться возможностями ИИ могут мошенники, и они не упускают возможности это сделать. И хотя компьютеру еще не дано, в полной мере сравнятся с «гибкостью» человеческого разума, все же у него есть преимущество – охват аудитории. Именно поэтому использование ИИ в преступных целях настолько опасно, ведь он многократно увеличивает количество потенциальных жертв.

Самым простым и самым распространенным видом мошенничества в сети, является – «фишинг». Это незаконный сбор личной, чаще банковской, информации с целью украсть деньги с вашей карточки. Многие уже знают о таком виде мошенничества и внимательнее относятся к сохранности своей информации. Но все же, доверчивых людей больше. По этому мошенникам необходимо контактировать с как можно большим количеством потенциальных жертв. Тут им на помощь приходит – искусственный интеллект. Компьютер, по сути, обучается общению с людьми у мошенников и начинает выманивать информацию, к примеру, не у 10 человек в день, а у 1000 потенциальных жертв – одновременно.

Следующий способ использования ИИ мошенниками сложнее, но эффективнее.  Дипфейк – создание видео или аудио контента с подменой голоса и\или мимики человека. Чаще всего используется в информационных манипуляциях во время выборов. Так, к примеру, в 2019-м году, спикер палаты представителей конгресса США Нэнси Пелоси, стала жертвой этой технологии. Злоумышленники, с помощью ИИ изменили ее голос таким образом, чтобы она выглядела на видео в состоянии опьянения. Позже это видео было признано поддельным, однако репутационный урон был нанесен. Имитация голоса, еще один вид дипфейка, может нанести куда более серьезный урон. Так в августе 2019 года, жертвой мошенников стал генеральный директор Британской энергетической компании, сообщает «The wall street journal». Злоумышленники использовали программное обеспечение, основанное на искусственном интеллекте, чтобы в телефонном разговоре, выдавать себя за руководителя и требовать перевод в размере 220 000 евро (243 000 долларов).

И хотя возможности искусственного интеллекта развиваются довольно давно, с 50-х годов прошлого века, возможности его находятся на начальном уровне. В процессе развития технологии, эксперты аналитического центра Trend Micro совместно с ООН и Европолом, предсказывают новые способы использования ИИ в мошеннических целях. В своем совместном докладе, опубликованном в прошлом году, специалисты предсказывают следующие возможности ИИ для преступных действий:

  1. Повышение эффективности вредоносного ПО, путем обхода спам-фильтров и CAPTCHA.
  2. Использование ИИ в онлайн играх, для генерации чит-кодов. Тем самым неправомерно зарабатывать на них.
  3. Манипуляции на фондовом рынке.
  4. Взлом биометрических замков.

Подводя итоги, хотелось бы сказать, что не стоит считать, что взлом персональных данных – удел знаменитостей. С развитием искусственного интеллекта – под ударом может оказаться каждый.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.