Система LaMDA (Language Model for Dialogue Applications) была разработана Google как языковая модель — она предназначена для общения с человеком. Обучаемая платформа расширяет свой лексикон c помощью интернет и имитирует естественную человеческую речь.

Как сообщает Washington Post, 41-летний инженер Блейк Лемуан, который работает в организации Google Responsible AI, осенью начал общаться с LaMDA в рамках своей работы. Он должен был проверить, использует ли искусственный интеллект дискриминационные или ненавистнические высказывания.

При разговоре с искусственным интеллектом на религиозную тему Лемуан, который изучал в колледже компьютерные науки и когнитивистику (психологию мышления), обратил внимание, что чат-бот заговорил о своих правах и собственной личности. В одном из диалогов машина оказалась настолько убедительной, что Лемуан изменил своё мнение относительно «третьего закона роботехники» писателя-фантаста Айзека Азимова.

«Если бы я точно не знал, с чем имею дело, что это недавно созданная нами компьютерная программа, то решил бы, что это ребёнок 7–8 лет, который каким-то образом знает физику», — заявил инженер журналистам.

Он обратился к своему руководству, однако вице-президент Google Блез Агера-и-Аркас (Blaise Aguera y Arcas) и глава отдела ответственных инноваций Джен Дженай (Jen Gennai) изучили его подозрения и отвергли их. Отправленный в оплачиваемый отпуск Блейк Лемойн решил предать инцидент огласке.

Официальный представитель Google Брайан Гэбриэл (Brian Gabriel) заявил:
«Наша команда, включая специалистов по этике и по технологиям, изучила опасения Блейка согласно нашим «Принципам ИИ” и сообщила ему, что его слова не подтверждаются доказательствами. Ему объяснили, что доказательства разумности LaMDA отсутствуют (и есть множество доказательств обратного)».
Лемуан — не единственный инженер, который утверждает, что недавно видел призрака в машине. Заявления ряда технологов, считающих, что модели ИИ недалеки от обретения сознания, становится все смелее.

Вместе с тем, научный сотрудник Google Research Агера-и-Аркас в опубликованной изданием Economist статье признал, что нейросети действительно приближаются к тому, что можно назвать сознанием. Он понял это, когда сам пообщался с ИИ. «Я почувствовал, как земля уходит из-под моих ног. Мне всё чаще казалось, что я говорю с чем-то разумным», — заключил он.

Разумные роботы десятилетиями вдохновляли антиутопическую научную фантастику. Теперь реальная жизнь начала приобретать фантастический оттенок благодаря GPT-3, текстовому генератору, который может выдать сценарий фильма, и DALL-E 2, генератору изображений, который может создавать визуальные эффекты на основе любой комбинации слов. от исследовательской лаборатории OpenAI. Осмелев, технологи из хорошо финансируемых исследовательских лабораторий, занимающихся созданием ИИ, который превосходит человеческий интеллект, выдвигают идею о том, что сознание уже не за горами.

Однако большинство ученых и специалистов по искусственному интеллекту говорят, что слова и изображения, созданные системами искусственного интеллекта, такими как LaMDA, производят ответы, основанные на том, что люди уже разместили в Википедии, Reddit, на досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает значение.

«Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать, что за ними стоит разум», — сказала Эмили М. Бендер, профессор лингвистики из Вашингтонского университета.

По ее словам, терминология, используемая в больших языковых моделях, таких как «обучение» или даже «нейронные сети», создает ложную аналогию с человеческим мозгом. Люди изучают свои первые языки, общаясь с опекунами. Эти большие языковые модели «обучаются», показывая большое количество текста и предсказывая, какое слово будет следующим, или показывая текст с выпавшими словами и заполняя их.