Явление ботоферм изучается учеными по всему миру в том числе такими организациями как Оксфордский Институт Интернета. Специальный отдел кибербезопасности Facebook активно противодействует ботофермам. В Украине борьба с подобным информационным воздействием происходит на уровне СБУ. При этом ботофермы активно используются различными украинскими группировками власти, и каждый политик мечтает иметь собственную ботоферму в личном распоряжении.

 

Ботоферма нового поколения

Под термином “ботоферма” в обществе принято считать, организованную группу людей, которые пишут оплачиваемые сообщения, выгодные заказчику, и публикуют их в Интернете со специально созданных аккаунтов.

Можем ли мы сказать, что это и есть ботофермы сегодняшнего дня? Не совсем. Это всего лишь малая часть функционала подобных структур. Институтом Информационной Безопасности были проведены исследования, в результате которых выяснилось, что за последнюю пятилетку произошла значительная трансформация такого явления, как ботоферма. Cуть трансформации в изменении маркетинговой политики. Ботоферма переросла в комплексное понятие –многоуровневую систему, именно так ее сегодня нужно воспринимать. Когда мы говорим, что изменился маркетинг — это значит, что эти структуры стали закрытыми. Мир теней – ботофермы нового поколения, о которых вы не знаете ничего, зато о вас знают все и могут этим манипулировать.

Несмотря на то, что это явление мирового масштаба, в Украине в большинстве случаев мы сталкиваемся с крайне примитивными элементами этой системы, но даже при таком использовании ботофермы ее функционал позволяет увеличить информационное влияние на массы людей в разных уголках земного шара.

 

Структура ботофермы

В ходе исследований было выявлено, что в структуру ботофермы нового поколения входят:

  • Координаторы, которые работают с сетками СМИ;
  • Группа журналистов, которые пишут то, что нужно и размещают на этих партнёрских ресурсах в сетках;
  • Технические специалисты;
  • И, наконец, боты, которые используют уже не просто комментарии со своим мнением и словами, а они ссылаются на некие ресурсы, на которых представлен контрвзгляд, разоблачающие статьи или любая другая форма информации, необходимая для реализации поставленных задач.

Существует множество разновидностей ботов, в данной статье рассмотрим два из них.

Первый уровень ботов – программы совершающие действия и выдающие себя за реальных людей. И это самый простой уровень, массовый, они не совершают сложных действий. Их еще называют автоматизированные боты, они как правило подключены к системе искусственного интеллекта.

Второй уровень ботов – аккаунты, управляемые людьми и выдающие себя за других людей. Более сложный уровень, технологический, представляющий серьезную угрозу, так как с каждым днем становится все сложнее отличить бота от пользователя.

Современный мир трансформировался в мир фейков и фантомов. Ботофермы стали серьезной масштабной угрозой, существующей сегодня в мире.

Взгляд на проблематику западных и европейских экспертов

Для того чтобы комплексно посмотреть на данное явление, обратим внимание на западную и европейскую научную среду, что говорят эксперты, занимающиеся изучением данной проблематики. Их прогнозы неутешительны…

 

«Искусственные личности — это будущее пропаганды»

 

«Боты разрушают политический дискурс — такой, какой он нам известен. Они являются рупорами для иностранных актеров, внутренних политических групп, даже самих кандидатов. И скоро вы не сможете сказать, что они боты»

БРЮС ШНАЙЕР научный сотрудник и преподаватель Гарвардской школы Кеннеди, член правления EFF и руководитель службы безопасности в Inrupt, Inc.

 

«Ложь распространяется в Twitter дальше, быстрее, глубже и шире, чем правда»

СИНАН АРАЛ — профессор Дэвида Остина по менеджменту, маркетингу, информационным технологиям и наукам о данных в Массачусетском технологическом институте; директор Инициативы Массачусетского технологического института по цифровой экономике; и руководитель лаборатории социальной аналитики Массачусетского технологического института.

«Кампании по дезинформации атакуют нас там, где мы наиболее уязвимы, в основе наших систем ценностей, вокруг социальных ценностей, таких как свобода слова, и целей платформ социальных сетей, таких как «объединение людей» 

КЕЙТ СТАРБЕРД— Professor, Human Centered Design & Engineering, University of Washington

«Именно циклы президентских выборов вложили десятки миллионов долларов в эти инновации», — сказал Ховард. «Инновации с большими деньгами происходят в Соединенных Штатах, а затем принимаются повсюду» (2017 год)

­­– ФИЛИП Н. ХОВАРД (Director of the Oxford Internet Institute). Professor of Internet Studies at the Oxford Internet Institute and Balliol College at the University of Oxford. Профессор социолог и исследователь коммуникационных технологий, изучающий влияние информационных технологий на демократию и социальное неравенство.

 

В 2017 году The Guardian писал: “Россия впервые разработала свой опыт цифровой пропаганды для борьбы с внутренними угрозами стабильности и подавления инакомыслия по отношению к режиму Путина, обеспечивая при этом ту же иллюзию подавляющего консенсуса, которая использовалась на выборах в США много лет спустя.”  “Иллюзия подавляющего консенсуса” эта фраза означает, что люди находятся в информационном пузыре, особенно в социальных сетях. Социальные сети устроены таким способом, что из них мы получаем ограниченную информацию, что в свою очередь позволяет ботофермам создать иллюзию подавляющего консенсуса, – когда вам 200 ботов в комментариях пишут на определенную тему, создается иллюзия большой массы людей c определенным мнением. И это один из важных аспектов ботофермы.

Отдел кибербезопасности Facebook для выявления и противостояния действиям ботов ввел термин “скоординированное недостоверное поведение” (CIB). Основным фактором для определения ботов и дальнейшего принятия мер является отслеживание поведения действий пользователей в социальной сети, а не на информационном содержании самих публикаций. У платформы имеется собственный паттерн поведения среднестатистического человека, например: заходя в социальную сеть человек начинает листать ленту новостей, ставить лайки и комментировать публикации, и так далее. Если поведение пользователя отклоняется от стандартного паттерна поведения, например: он проводит слишком много времени онлайн, отправляет слишком много сообщений, слишком много комментирует или выполняет другие действия несоответствующие стандартному поведению, то он попадает в список угроз. И если Facebook определяет, что это не одиночное поведение, а скоординированное, соответственно группа пользователей также попадает в этот список угроз. И тут есть риски, что обычный пользователь может пострадать от действий ботов. Второй важный момент, на который стоит обратить внимание, что Facebook отделяет “скоординированное недостоверное поведение” (CIB) от “иностранного или государственного вмешательства” (FGI). Он хорошо понимает какие аккаунты, профили, группы были созданы с целью влияния на государственный режим внутри страны либо когда одна страна предпринимает действия для попытки влияния на ценности другой страны. И если вы слышали о массовых блокировках на Facebook или читали ежемесячные отчеты, то в 90% случаях угрозы исходят от “иностранного или государственного вмешательства” (FGI).

В 2017 год Washington утверждает, что: “Платформы социальных сетей недостаточно эффективны для борьбы с распространением ботов и связанной с этим пропагандой. Воздействие выходит за рамки избирательной политики и затрагивает такие острые вопросы, как изменение климата и безопасность вакцин.” (имеется в виду вакцинация детей в США).

По сути, во всех остросоциальных темах были замечены действия ботов. Нельзя говорить, что ботофермы используются различными силами только в политических интересах. Технологии постоянно совершенствуются, все мы являемся участниками этих социальных экспериментов.

 

Классификация применения ботофермы

 

Малое количество специалистов и закрытость достоверной информации часто вводит людей в заблуждение относительно рассматриваемого вопроса. О том, какая классификация применения ботофермы существует, вы информации не найдете. Часто вы можете встретить лишь общие описания самих последствий. О том же, что именно происходило и какова настоящая причина этого вы не обнаружите. Этой информации в открытом доступе просто нет.

Исследуя вопрос как используются ботофермы на протяжении нескольких лет, экспертам закрытой группы Института Информационной Безопасности удалось вывести четкую классификацию применений ботофермы. Зачастую применяются комбинации из нескольких категорий, описанных ниже. На примерах рассмотрим применение некоторых их них:

Дезинформация – распространение ложных сведений с целью ввести кого-либо в заблуждение.

В своей научной работе Кейт Старберд приходит к выводам:

“Возможно, наиболее распространенным заблуждением является то, что дезинформация — это просто ложная информация. Если бы это было так, платформы могли бы просто добавить ярлыки «true» и «false», тактика, которую часто предлагалось. Но дезинформация часто накладывает истинную информацию на ложь — точный факт, установленный в вводящем в заблуждение контексте, реальная фотография, намеренно ошибочно поставленная. Ключ заключается не в том, чтобы определить правду конкретного поста или твита, а в том, чтобы понять, как он вписывается в более крупную кампанию дезинформации.

Другое заблуждение заключается в том, что дезинформация исходит в основном от агентов, производящих ложный контент (платные «тролли») и автоматизированные учетные записи («боты»), которые его продвигают. Но эффективные кампании дезинформации включают в себя различных участников; они могут даже включать большинство «невымышленных агентов», которые не знают о своей роли, но которые усиливают и украшают сообщения, которые поляризуют сообщества и сеют сомнения в науке, основной журналистике и западных правительствах.”

Пример применения категории дезинформация:

«Оперативники спецслужбы установили, что для воздействия на электоральные настроения украинцев, кураторы накануне местных выборов распространяли через интернет ложную информацию, направленную на разжигание межэтнической вражды и пропаганды сепаратизма», — говорится в сообщении.

Следователи установили, что несколько граждан Украины и РФ организовали в Киеве и Запорожье работу так называемых «ботоферм», с задействованием специализированного телекоммуникационного оборудования.

Мистификация – сложность различия между ботом и реальным человеком создает предпосылку для мистификации ботоферм. Это некое оправдание событий ботами.  Например, утверждение что ботоферма атаковала, проверить зачастую невозможно. Люди таким способом скрывают свою халатность или преступную деятельность. Как вариант – это когда политик выложил неприемлемый пост, после чего подвергся критики и в свое оправдание он заявляет, что это не люди, а боты комментируют. Другим примером может быть блокировка неугодных для кого-то аккаунтов под предлогом, что это деятельность ботоферм.

Пример мистификации:
Загитова закрыла инстаграм из-за атаки ботов. Но сделала это, только обойдя по подписчикам Медведеву

Массовые жалобы – использование ботоферм в качестве атакующего оружия, с целью дезорганизации деятельности. В данном случае, применяются автоматизированные боты с целью навредить в определенной плоскости.

Форсинг – применение ботоферм в качестве комплексного атакующего вооружения с целью прекращения деятельности. В этом случае осуществляется скоординированная массовая атака на субъект с применением всего диапазона возможностей автоматизированных ботов и ботов людей с вовлечением в процесс обычных людей.

Пример применения форсинга:

30 сентября в Париже покончил самоубийством известный японский шеф-повар Таку Секине. После длительного пребывания в глубокой депрессии из-за публичных обвинений в изнасиловании повар наложил на себя руки.

Cancel culture. Процесс Cancel culture можно описать схематично: некую публичную личность, обычно представителя медиаиндустрии, ловят на оскорбительном высказывании, подразумевающем расизм, сексизм, дискриминацию меньшинств (ЛГБТ+ людей, иммигрантов, коренных народов, людей с ограниченными возможностями). Такое высказывание моментально распространяется онлайн посредством социальных сетей (в особенности твиттера), где пользователи активно обсуждают и осуждают его и требуют бойкотировать автора скандального заявления. Бойкот или «отмена» проявляется в игнорировании творчества, расторжении рабочих контрактов с медиаперсоной, упоминании его в СМИ.

Прокуроры штата Массачусетс прекратили дело против актера Кевина Спейси по обвинению в сексуальных домогательствах.

Приведем еще пример применения Cancel culture. Украинку затравили в соцсетях за рассказ о вибраторе. Ей пришлось уволиться

В Фейсбуке разгорелся скандал из-за публикации в личном блоге помощницы председателя Центральной избирательной комиссии Анжелы Еременко. 28 февраля она опубликовала рассказ о подарке на 14 февраля. Это был вибратор, который сломался в первый же день. Публикация была написано с юмором, но многие восприняли такую откровенность в штыки и начали писать ей оскорбления. Ей писали, что работнице ЦИК «должно быть стыдно писать о таких вещах», «Засунь собі його в сраку»…

Отбеливание – повышение социальной значимости применяется в мирное время, когда требуется, чтобы человек или определённая организация получили поддержку в социальных и/или профессиональных сообществах.

Киевская ботоферма, на которой под прикрытием работал журналист, писала проплаченные комментарии в поддержку генерала Службы безопасности Украины Анатолия Калюжняка. Боты «отбеливали» его после публикации slidstva.info.

Противостояние – это обособленная категория, к которой относятся действия, связанные с борьбой против ботоферм. К категории относятся любые действия, направленные против ботоферм и на устранение последствий деятельности ботоферм. Действия одной ботофермы против другой, физ. лица, юр. лица, гос. структур и т. д.

 

Как противодействовать ботоферме?

Безусловно большинство людей в мире интересует вопрос, можно ли противодействовать современным ботофермам? Одним из эффективных методов противодействия ботофермам является формирование “информационного бронежилета”. Для создания подобной защитной системы необходимо разобраться в методах формирования общественного мнения с помощью модели формирования общественного мнения, которую использует член Президиума Европейской академии наук Украины — Массимо Интровиньеитальянский социолог религии, директор-основатель Центра изучения новых религий, бывший представитель председателя ОБСЕ по борьбе с расизмом, ксенофобией и дискриминацией.

Формирование общественного мнения строится сверху вниз с привлечением мнения людей с различных уровней пирамиды. Информационный щит формируется с участием всех уровней пирамиды. Если все этажи заполнены, и соответствующие материалы появляются регулярно на всех уровнях, то нивелировать воздействие ботофермы не составит трудностей!

 

Подводя итог


Технологии постоянно развиваются, и уже ботофермы нового поколения активно применяются для решения различных задач.

Ботоферма превратилась в мощное и эффективное оружие в мире информационных войн. Насколько это оружие опасно? Вопрос риторический. Может иметь как разрушительный, так и созидательный эффекты, зависит от того в чьих руках оно находится, с каким умыслом используется. Одна ботоферма может противостоять деструктивной деятельности другой ботофермы и может использоваться во благо общества.