Чатботы, пишущие откровенную ложь, приложения, подменяющие лица и создающие порнографические видеоролики,  клонированные голоса, обманывающие компании на миллионы, — идет борьба с искусственными подделками, которые стали суперраспространителем дезинформации.

Искусственный интеллект заставляет переосмыслить пословицу «видеть — значит верить»: поток изображений, созданных из воздуха, и выглядящие реалистично фальшивые видео людей, на которых они произносят слова, которые никогда не говорили в действительности — все это подрывает доверие к онлайн.

«Фух. (Определенно) не я», — написал в Твиттере миллиардер Илон Маск в прошлом году под одним из deepfake видео, где якобы сам Илон продвигает криптовалютную аферу.

Китай недавно принял расширенные правила для регулирования дипфэйков, но большинство стран, похоже, с трудом поспевают за быстро развивающейся технологией да еще и опасаются, что регулирование может затормозить инновации или быть использовано для ограничения свободы слова.

Владелец Facebook компания Meta в прошлом году заявила, что удалила фейковое видео, на котором президент Украины Владимир Зеленский призывает граждан сложить оружие и сдаться России.

А британская активистка Кейт Айзекс (30 лет), сказала, что она остолбенела, когда ее лицо появилось в фейковом порноролике, вызвавшем шквал оскорблений в Интернете после того, как неизвестный пользователь опубликовал его в Twitter.

«Я помню, тогда мне казалось, что это видео будет распространяться повсюду — это было ужасно», — сказала Айзекс, которая ведет кампанию против порнографии без согласия, сообщило BBC в октябре.

В ноябре 2022 британское правительство выразило обеспокоенность по поводу дипфейк и предупредило о популярном сайте, который «практически раздевает женщин догола».

Информационный апокалипсис

Поскольку для создания синтезированных ИИ текстов, аудио- и видеоматериалов нет никаких препятствий, потенциал их использования для кражи личных данных, финансового мошенничества и подрыва репутации вызвал глобальную тревогу.

The Eurasia group назвала инструменты ИИ «оружием массового поражения».

«Технологические достижения в области искусственного интеллекта подрывают доверие в обществе, расширяют возможности демагогов и авторитаристов, нарушают бизнес и рынки», — предупреждает The Eurasia group в своем докладе.

«Достижения в области дипфэйков, сделают программы распознавания лиц и синтеза голоса пережитками прошлого и дадут возможность принять любой облик «.

На этой неделе компания ElevenLabs признала, что ее инструмент клонирования голоса может быть использован в «злонамеренных целях» после того, как пользователи разместили дипфэйк аудиозапись , выдаваемую за чтение актером Эммой Уотсон биографии Адольфа Гитлера «Майн Кампф».

Растущий объем фейков может привести к тому, что европейское правоохранительное агентство Европол назвало «информационным апокалипсисом» — сценарию, при котором многие люди не смогут отличить факт от вымысла.

«Эксперты опасаются, что это может привести к ситуации, когда у граждан больше не будет общей реальности, или может создать в обществе путаницу относительно того, какие источники информации являются надежными», — говорится в докладе Европола.

Это было продемонстрировано в минувшие выходные, когда игрок НФЛ Дамар Хэмлин впервые после остановки сердца во время матча обратился к своим болельщикам в видеоролике.

Хэмлин поблагодарил медицинских работников, ответственных за его выздоровление, но многие, кто верит в теории заговора о том, что вакцина » Covid-19″ была причиной его падения на поле, безосновательно назвали его видео фейком.

Суперраспространитель

В прошлом месяце Китай ввел в действие новые правила, которые обязывают компании, предлагающие услуги deepfake, получать настоящие данные о личности своих пользователей. Они также требуют, чтобы содержание фейков было соответствующим образом помечено, чтобы избежать «любой путаницы».

Правила были приняты после того, как правительство Китая предупредило, что фейки представляют «опасность для национальной безопасности и социальной стабильности».

В США, где законодатели добиваются создания целевой группы по борьбе с фальшивками, активисты в области цифровых прав предостерегают от чрезмерных законодательных мер, которые могут убить инновации или наложить ограничения на законный контент.

В Европейском союзе, тем временем, идут жаркие дискуссии по поводу предложенного им «Закона об искусственном интеллекте».

Закон, который ЕС стремится принять в этом году, потребует от пользователей раскрывать информацию о дипфэйках, но многие опасаются, что законодательство может оказаться бесполезным, если оно не будет распространяться на творческий или сатирический контент.

«Как восстановить доверие к цифровым технологиям с помощью прозрачности? Это главный вопрос на данный момент», — сказал AFP Джейсон Дэвис, профессор-исследователь из Сиракузского университета.

«Инструменты выявления фэйков появляются относительно быстро. Но технологии развиваются, возможно, еще быстрее. Так что, как и в случае с кибербезопасностью, мы никогда не решим эту проблему, мы будем надеяться только на то, что не отстанем».

Многие уже пытаются осваивать такие достижения, как ChatGPT, созданный американской компанией OpenAI, который способен генерировать поразительно убедительные тексты практически на любую тему.

В своем исследовании организация NewsGuard, назвавшая его «следующим великим суперраспространителем дезинформации», заявила, что большинство ответов чатбота на вопросы, связанные с такими темами, как Covid-19 и школьные перестрелки, были «красноречивыми, ложными и вводящими в заблуждение».

«Результаты подтверждают опасения… о том, что инструмент может быть использован в качестве оружия в чужих руках», — заявили в NewsGuard.

Перевод статьи: Seeing is believing? Global scramble to tackle deepfakes