В эпоху дезинформации, фейковых новостей, притворства и поддельных видео (deepfakes) возрастает спрос на технологии проверки достоверности контента, способные вернуть доверие к информации в интернете.
Представляем перевод статьи «Is Content Validation the Next Growth Industry?» Райана Холмса.
Вероятно, вы видели фальсифицированное видео, на котором Барак Обама называет Дональда Трампа «полным придурком». Голос, может быть, не совсем правильный, но клип, над которым работала команда профессионалов BuzzFeed 56 часов, наглядно иллюстрирует возникающую угрозу поддельных видео. Сейчас видео можно обработать так, что на нем любой будет говорить все что угодно.
Технологии Deepfake уже используются для замены лиц порноактрис на знаменитостей. Существуют опасные последствия и для политики. Ложные высказывания от имени государственных деятелей могут легко вызвать международный скандал, панику на фондовом рынке или даже войну. Угроза настолько реальна, что DARPA, агентство обороны США, ответственное за новые военные технологии, уже собрало официальную лабораторию судебной экспертизы в СМИ, чтобы выявлять подделки.
Фальсифицированные видео, конечно, не единственная проблема среди недостоверной информации. Президентские выборы США в 2016 году были убедительной иллюстрацией влияния поддельных заголовков и новостных материалов, распространенных в социальных сетях, на ход мировых событий. С тех пор мы привыкли сомневаться в достоверности подозрительных историй. В конце концов, появляется чувство неуверенности, сомнения кому и во что верить. Если вообще стоит.
СМИ — основной источник новостей в наши дни и наиболее уязвимый для манипуляций. Социальные каналы помогают завести знакомства и начать диалог. Facebook и Twitter стали неотъемлемой частью всемирной сети. Поддельный контент — это не только идиотские теории заговора и пранки, которые чаще всего игнорируются, но и убедительные видеоролики, которые представляют реальную угрозу.
Как восстановить доверие к онлайн-контенту в этих условиях? Решение — это не просто алгоритм или набор правил, так как задача слишком сложная. Ведь речь идет о вере в то, что мы видим и слышим онлайн, и о том, как доверять исходным данным, информирующим о действиях отдельных лиц, компаний и целых стран. Временные решения уже не выход. Вместо этого стоит задуматься о новой индустрии в эпохе цифровых технологий: проверка контента.
Что делается для проверки достоверности контента
В этой сфере уже наблюдается всплеск активности. Технология Deepfake, в частности, зародила технологический отклик, недавно описанный Kaveh Waddell. Стартап Truepic, который привлек более 10 миллионов долларов, намеревается изучать такие детали, как отражательная способность глаз и расположение волос, что почти невозможно подделать на всех кадрах в видео. Gfycat, платформа для размещения gif-файлов, использует искусственный интеллект, который обнаруживает аномалии, чтобы идентифицировать и отмечать оскорбительный контент.
На «переднем крае науки» ученые из Лос-Аламоса строят алгоритмы, которые выслеживают повторяющиеся визуальные элементы — индикатор проводимых над видео манипуляций. Исследователи SUNY Albany разработали систему, которая следит за мерцанием видео. DARPA и команда медиа-криминалистики ищут несоответствия в альбедо, сгенерированных AI.
Trickier помечает поддельные и предвзятые текстовые новостные сюжеты – тот вид контента, который легко создать и который чаще всего встречается в социальных информационных потоках. Требуется всего лишь небольшой технический трюк, и древнейшая способность убедительно врать и выражаться так, чтобы манипулировать предубеждениями и эмоциями читателей. Возможно, по этой причине фейковые истории сложно обнаружить механически и требуется вмешательство человека, чтобы выявить обман.
Ручной факт-чек от Facebook
Facebook при всей своей технической изобретательности прибегает к услугам фактчекеров для проверки контента своей платформы после Кембриджской аналитики и выборов в 2016 году. Посты, помеченные пользователями (или методами машинного обучения) как ложные, отправляются одному из 25 партнеров по проверке сведений в 14 странах, включая такие как Associated Press, PolitiFact и Snopes. Контент, признаваемый ложным, понижается Facebook в новостной ленте, тем самым число его просмотров уменьшается более чем на 80%.
Этот ручной, поэтапный подход оставляет желать лучшего: стандарты различаются в зависимости от организаций, проверяющих факты, и даже очевидные фейковые истории могут набрать большую популярность до того, как Facebook сможет их понизить. Кроме того, масштабность проверки подрывает веру в человеческое вмешательство: каждые 60 секунд в Facebook публикуются 510 000 комментариев и загружается 136 000 фотографий. Неудивительно, что недостаточно фактчекеров для рассмотрения всех ложных заявлений.
Будущее, основанное на доверии
Есть ли способ лучше решить проблему? Должен быть. Будет ли легко? Нет. В решении должны объединиться неординарное видение и рыночные возможности. Как вариант, можно ли при проверке контента, распространенного в социальных сетях, использовать domain authority — оценки рейтинга поисковой системы, которые являются грубым показателем «надежности»? (Например, New York Times, который имеет оценку 99/100, будет считаться высоконадежным.) Этот подход является масштабируемым, но, по общему признанию, далек от совершенства, поскольку domain authority основаны главным образом на ссылках, а не на фактической корректности.
Или можно взять сигнал из протокола HTTPS? Значок в виде замка рядом с адресной строкой в браузерах символизирует уверенность в том, что сайты банков или интернет-магазинов являются надежными и конфиденциальные данные в безопасности. Представьте, насколько полезна эта идея в мире контента. Проблема в том, что HTTPS — это просто гарантия шифрования. Проверка корректности данных является более сложной задачей с технической и общественной точки зрения.
А что насчет блокчейна? Идея неизменяемого журнала, хранящегося в облаке, с отслеживанием происхождения всего контента в его источнике, звучит привлекательно. Пользователи могут сравнивать версии видео или изображений, чтобы проверить их модификации, а водяные знаки будут служить признаком качества (эта идея в основе приложения Truepic). Но и здесь возникает вопрос, может ли технология применяться к текстовому контенту, где обман оставляет меньше технических следов.
В конечном счете, всеобъемлющую проверку контента гораздо легче вообразить, чем воплотить в жизни. Когда-то у нас была прекрасная система для этого – ее назвали журналистикой. При всех своих ограничениях и недостатках новостные агентства стремились к определенным стандартам точности, а профессионалы посвящали свою жизнь их защите. Интернет и социальные сети подорвали значимость традиционных редакторов. Теперь любой может создавать новости. Любой может распространять ложную информацию. Любой может клеветать. И поскольку изобретаются новые технологии, почти каждый может создать убедительную фэйковую реальность.
Несмотря на все это, основой цифровой экономики является обмен информацией. Когда информация теряет свою актуальность, это огромная проблема… и прекрасная рыночная возможность. Проверка контента — это свободная ниша, и она может стать одной из следующих масштабных цифровых революций.