ИИ должен быть инструментом, помогающим группам кибербезопасности работать над поимкой злоумышленников. Тем не менее, отчет Wakefield Research по заказу Devo показал, что еще многое предстоит сделать.

Будь то в романах или фильмах, основанных на них, искусственный интеллект был предметом восхищения на протяжении десятилетий. Синтетические люди, представленные Филипом К. Диком, остаются (к счастью) предметом научной фантастики, а вот искусственный интеллект реален и играет все более важную роль во многих аспектах нашей жизни.

Несмотря на то, что быть против человекоподобных роботов с искусственным интеллектом (а может и болеть за них) весело, гораздо более приземленная, но не менее мощная форма искусственного интеллекта начинает играть роль в кибербезопасности.

Цель состоит в том, чтобы ИИ стал множителем силы для трудолюбивых специалистов по безопасности. Аналитики центра управления безопасностью (SOC), как мы видели в последнем отчете Devo SOC Performance Report , часто перегружены бесконечным количеством предупреждений, которые ежедневно появляются на их экранах. Усталость от бдительности стала общеотраслевой причиной выгорания аналитиков.

В идеале ИИ мог бы помочь аналитикам SOC идти в ногу (и опережать) умных и безжалостных злоумышленников, которые эффективно используют ИИ в преступных или шпионских целях. Но, к сожалению, похоже, этого пока не происходит.

Большая ложь ИИ

Компания Devo поручила Wakefield Research провести опрос 200 специалистов по ИТ-безопасности, чтобы определить, как они относятся к ИИ. Обзор охватывает реализации ИИ, которые включают в себя целый ряд защитных дисциплин, включая обнаружение угроз, прогнозирование рисков взлома, а также реагирование на инциденты и управление ими.

Предполагается, что искусственный интеллект должен стать множителем силы для команд по кибербезопасности, отчаянно пытающихся наверстать упущенное в отношении сообразительных злоумышленников, нехватки талантов и многого другого. Однако не все ИИ настолько умны, и это мы еще учитывали несоответствия в потребностях и возможностях.

Миф № 1: Кибербезопасность на базе искусственного интеллекта уже существует

Все респонденты опроса заявили, что их организации используют ИИ в одной или нескольких областях. Основная область использования — управление запасами ИТ-активов, затем обнаружение угроз (что обнадеживает) и прогнозирование риска взлома.

Но с точки зрения использования ИИ непосредственно в битве со злоумышленниками, на данный момент это не так уж и сложно. Около 67 % респондентов заявили, что использование ИИ в их организации «едва ли поверхностно».

Более половины респондентов считают, что их организация — по крайней мере, в настоящее время — слишком сильно полагается на ИИ. Менее одной трети считают использование ИИ уместным, в то время как меньшинство респондентов считает, что их организация недостаточно использует ИИ.

Миф № 2: ИИ решит проблемы безопасности

Когда респондентов спросили, что они думают о проблемах, связанных с использованием ИИ в их организациях, респонденты не стеснялись. Всего 11% респондентов заявили, что не испытывают проблем с использованием ИИ для кибербезопасности. Подавляющее большинство респондентов видят вещи совсем по-другому.

На вопрос, где в стеке безопасности их организации возникают проблемы, связанные с искусственным интеллектом, оказалось, что основные функции кибербезопасности работают не очень хорошо. В то время как управление запасами ИТ-активов было главной проблемой ИИ, по мнению 53% респондентов, три категории кибербезопасности также получили не лучшие ответы:

Обнаружение угроз (33%)
Понимание сильных и слабых сторон кибербезопасности (24%)
Прогнозирование риска взлома (23%)

Интересно отметить, что гораздо меньше респондентов (13%) назвали реагирование на инциденты в связи с постановкой проблем, связанных с ИИ.

Миф № 3: ИИ умен, поэтому он должен быть эффективным

Кажется очевидным, что, хотя ИИ уже используется в кибербезопасности, результаты неоднозначны. Большая ложь ИИ заключается в том, что не все ИИ настолько «интеллектуальны», как следует из названия, и это даже без учета несоответствий в организационных потребностях и возможностях.

Индустрия кибербезопасности уже давно зациклена на поиске «Святого Грааля», который даст решение. ИИ самый последний. Организации должны действовать обдуманно и ориентироваться на результат в том, как они оценивают и внедряют решения ИИ. Если команды SOC не объединят ИИ с опытными экспертами, разбирающимися в технологии, они рискуют потерпеть неудачу в критической области практически без права на ошибку.

Организации должны быть уверены, что работают с опытными экспертами в области технологий искусственного интеллекта, иначе они рискуют потерпеть неудачу в критической области практически без права на ошибку.

Перевод статьи «The Top 3 AI Myths in Cybersecurity»