Дипфейк (deepfake) —это полностью искусственные изображения, видео или аудио, созданные искусственным интеллектом. Дипфейк изобрел студент Стэнфордского университета Ян Гудфеллоу в 2014 году для разработчиков искусственного интеллекта. Но технология быстро вышла за пределы узкого круга учёных и сейчас её широко используют в различных сферах: архитектуре, образовании, цифровом искусстве и т.д.
Существует множество бесплатных приложений, и любой желающий может создать свои собственные дипфейки. Безусловно, технологию также стали использовать киберпреступники, и сегодня эксперты говорят о том, что в будущем дипфейки могут стать одним из их излюбленных инструментов.
Тенденции и угрозы
Операции по дезинформации и влиянию активно проводятся с использованием дипфейков. По словам экспертов, такая тенденция только будет набирать обороты. Сообщает securityboulevard.
В марте 2021 года ФБР выпустило соответствующее предупреждение. «Иностранные субъекты в настоящее время используют искусственный контент в своих кампаниях по влиянию, и ФБР ожидает, что он будет все чаще использоваться иностранными и криминальными киберсубъектами для целевого фишинга и социальной инженерии», — говорится в сообщении.
Помимо того, исследования показывают, что сегодня самые популярные темы на форумах даркнета связаны с инструментами дипфейков: практические методы и уроки, совместное использование бесплатного программного обеспечения, генераторы фотографий. Сообщает 2-spyware.
Все больше экспертов видят угрозу в связи с растущей популярностью биометрических технологий и проверки цифровых удостоверений личности, поскольку учреждения и частные лица используют распознавание голоса и лиц для подтверждения личности в банковских или охранных целях. И киберпреступники уже начали использовать технологию, которая может использоваться для обхода этих методов защиты.
Таким образом, по мере того как биометрическая аутентификация все чаще начинает использоваться в повседневной жизни, технологии дипфейков также развиваются и становятся все более изощренными. Растущее беспокойство по поводу того, что из-за дипфейков могут остановить текущие проверки личности, более чем обосновано.
Персонализированные атаки
Стоит приготовиться к тому, что атаки программ-вымогателей будут сочетаться с дипфейками и станут более персонализированными.
Соучредитель REAL (Registrul Educaional Alternativ) Пол Брикман рассказал, как может выглядеть подобная атака. Создается дипфейковое видео, которое компрометирует жертву. А потом человеку поступает угроза, что данное видео будет распространенно, если он не выплатит выкуп.
Также дипфейки могут использоваться в более традиционных атаках программ-вымогателей, когда жертва нажимает на ссылку, чтобы посмотреть инкриминирующее ее видео, а по итогу, на ее личный или корпоративный компьютер загружается вредоносное ПО.
«К счастью, такого уровня вымогательства еще не встречалось. Тем не менее, потенциал использования дипфейков для разрушения репутации очень высок», — говорится в сообщении в блоге MalwareBytes.
Автоматический взлом
Автоматизация многих процессов не минула и кибератаки. Сегодня существуют автоматизированные взломы, достигающие промышленных масштабов. Сообщает information-age.
Автоматизированные атаки совершаются в виде множественных и более эффективных попытках взломов, которые могут привести к огромным финансовым потерям и разрушить репутацию организации. Они полностью автоматизированы, от разведки до организации атак, и быстро реализовываются, что оставляет мало времени для их обнаружения и реагирования. В таких случаях общедоступная информация с веб-сайтов предприятий и социальных сетей быстро собирается с использованием автоматизированных инструментов с открытым исходным кодом для создания убедительных профилей и использования хакерами в качестве прелюдии к атакам.
Как выявить дипфейк
Искусственный контент может быть очень убедительным, но существуют некоторые зацепки, которые позволят распознать дипфейк. Например, глаза — самая сложная для копирования черта лица, поэтому, если глаза выглядят странно на фотографии, скорее всего, это дипфейк. Неестественные движения — еще один признак дипфейкового видео.
Кроме того, пользователи должны проверить источник предполагаемого дипфейка и убедиться, что все фото или видео взяты из надежного источника. Если учетная запись или медиа-источник выглядят подозрительно, то велика вероятность, что контент может оказаться поддельным.
Правило, которое должно стать основополагающим в цифровом мире – никогда не полагаться на один источник информации и всегда искать подтверждение в других более надежных средствах массовой информации.
Для компаний необходим системный подход для защиты. ИТ-гигиена, использования авторизации и аутентификации, а также контроль всех цифровых активов является хорошей защитой от киберугроз. Также стоит использовать только необходимые сетевые ресурсы и исключить остальные, чтобы минимизировать цифровой след в сети.
Сегодня мы, по сути, находимся только на начальной стадии использования дипфейков в преступных целях, но это может перерасти в серьезную угрозу и к этому необходимо быть готовыми.