Представьте, что Вы только что вернулись домой после долгого рабочего дня и собираетесь сесть за ужин, как вдруг ваш телефон начинает жужжать. На другом конце — близкий человек, возможно, родитель, ребенок или друг детства, умоляющий вас немедленно выслать ему деньги. Вы задаете им вопросы, пытаясь понять. Что-то не так в их ответах, они либо расплывчаты, либо не соответствуют действительности, а иногда в них ощущается своеобразная задержка, как будто они думают слишком медленно. Тем не менее, вы уверены, что это точно говорит ваш любимый человек: Вы слышите именно его голос, а определитель номера показывает его номер. Списывая все странности на их панику, вы послушно отправляете деньги на банковский счет, который они вам предоставили.

На следующий день вы перезваниваете им, чтобы убедиться, что все в порядке. Ваш любимый человек понятия не имеет, о чем вы говорите. Это потому, что он вам не звонил — вас обманула технология: искусственный интеллект, подделывающий голос. Тысячи людей были обмануты таким образом в 2022 году.

Способность клонировать голос человека становится все более доступной для каждого, у кого есть компьютер.

Как исследователи компьютерной безопасности, мы видим, что постоянный прогресс в алгоритмах глубокого обучения, редактировании, создании аудио и синтетических голосов означает, что становится все более возможным убедительно имитировать голос человека.

Более того, такие чат-боты, как ChatGPT, начинают генерировать реалистичные сценарии с адаптивными ответами в реальном времени. Сочетая эти технологии с генерацией голоса, deepfake превращается из статичной записи в живой, реалистичный аватар, который может убедительно вести телефонный разговор.

Клонирование голоса с помощью ИИ

Создание убедительного высококачественного deepfake, будь то видео или аудио, — не самое простое занятие. Для этого требуется множество художественных и технических навыков, мощное оборудование и достаточно большой образец целевого голоса.

Растет число сервисов, предлагающих за определенную плату создать клоны голоса умеренного или высокого качества, а некоторым инструментам для глубокой подделки голоса требуется образец длиной всего в минуту или даже несколько секунд, чтобы создать клон голоса, который может быть достаточно убедительным, чтобы обмануть кого-то. Однако, чтобы убедить близкого человека — например, для использования в мошенничестве с выдачей себя за другого — скорее всего, потребуется значительно качественная «подделка».

Исследователи смогли клонировать голоса всего лишь из образца пяти секундной записи.

Защита от мошенничества и дезинформации с помощью deepfake

Учитывая все вышесказанное, мы в рамках проекта DeFake Project Рочестерского технологического института, Университета Миссисипи и Мичиганского государственного университета, а также другие исследователи прилагаем все усилия, чтобы иметь возможность обнаруживать видео- и аудиоподделки и ограничить вред, который они наносят. Существуют также простые и повседневные действия, которые вы можете предпринять, чтобы защитить себя.

Для начала, голосовой фишинг, или «вишинг», мошенничество, подобное описанному выше, — это наиболее вероятные голосовые фальшивки, с которыми вы можете столкнуться в повседневной жизни, как на работе, так и дома. В 2019 году одна энергетическая компания была обманута на 243 000 долларов США, когда преступники имитировали голос начальника ее материнской компании, чтобы приказать сотруднику перевести средства поставщику. В 2022 году с помощью имитации голосов, в том числе близких, личных связей, у людей было выманено примерно 11 миллионов долларов.

Что можно сделать с фейковыми голосами, созданными ИИ?

Будьте внимательны к неожиданным звонкам, даже от хорошо знакомых вам людей. Это не значит, что вам нужно планировать каждый звонок, но полезно хотя бы заранее отправить электронное письмо или текстовое сообщение. Также не стоит полагаться на определитель номера, поскольку его тоже можно подделать. Например, если вам звонит человек, утверждающий, что он представляет ваш банк, положите трубку и позвоните непосредственно в банк, чтобы убедиться в законности звонка. Обязательно используйте номер, который вы записали, сохранили в списке контактов или можете найти в Google.

Кроме того, будьте осторожны с личной идентификационной информацией, такой как номер социального страхования, домашний адрес, дата рождения, номер телефона, второе имя и даже имена ваших детей и домашних животных. Мошенники могут использовать эту информацию, чтобы выдать себя за вас банкам, риэлторам и другим лицам, обогащаясь при этом и разоряя вас или уничтожая вашу кредитоспособность.

Вот еще один совет — изучите себя. В частности, знайте свои интеллектуальные и эмоциональные предубеждения и уязвимые места. Это хороший жизненный совет в целом, но он имеет ключевое значение для защиты от манипуляций. Мошенники, как правило, пытаются вычислить и затем воспользоваться вашими финансовыми опасениями, политическими привязанностями или другими склонностями, какими бы они ни были.

Такая бдительность также является достойной защитой от дезинформации с помощью голосовых фальшивок. Глубокие подделки могут быть использованы для того, чтобы воспользоваться вашим предубеждением или тем, что вы склонны верить кому-то.

Если вы слышите, как важный человек, будь то представитель вашего общества или правительства, говорит что-то, что либо кажется очень нехарактерным для него, либо подтверждает ваши худшие подозрения о нем, вам стоит насторожиться.

Перевод статьи: Voice Deepfakes Are Calling. Here’s How to Avoid Them