Кто будет нести ответственность за вредоносную речь, созданную большими языковыми моделями? Поскольку передовые ИИ, такие как GPT-3 от OpenAI, сегодня приветствуются в связи с впечатляющими прорывами в обработке и генерации естественного языка, мы не можем игнорировать связанные с этой технологией риски.

Такие мощные инструменты генерации текста могут непреднамеренно автоматизировать распространение клеветы, а злоумышленники преднамеренно использовать в качестве оружия, чтобы сеять хаос и масштабировать ущерб.

Например, компания OpenAI достаточно обеспокоена существующими рисками того, что отчасти указано в ее документации. Но, учитывая новизну технологии, нет четких юридических требований, согласно которым должны применяться контентные фильтры. Таким образом, OpenAI либо действует из опасения, чтобы его модели не причиняли генеративного вреда людям — и/или заботы о репутации — потому что, если технология будет связана с токсичностью, это может сорвать развитие.

Достаточно вспомнить злополучный чат-бот Microsoft Tay AI в Twitter, который был запущен еще в марте 2016 года с большой помпой, а исследовательская группа компании назвала его экспериментом в «разговорном понимании». Тем не менее, потребовалось меньше дня, чтобы Microsoft отключила его, так как веб-пользователи быстро «научили» бота расистским, антисемитским и женоненавистническим высказываниям. Таким образом, это закончилось экспериментом другого рода: о том, как онлайн-культура может проводить и усиливать худшие импульсы, которые могут быть у людей.

Те же виды низкокачественного интернет-контента были втянуты в современные большие языковые модели — потому что создатели моделей ИИ просканировали весь Интернет, чтобы получить огромные массивы бесплатного текста, которые им нужны для обучения и набора своих языковых возможностей. (Например, согласно Википедии , 60% взвешенного набора данных для предварительного обучения для OpenAI GPT-3 поступило из отфильтрованной версии Common Crawl — бесплатного набора данных, состоящего из извлеченных веб-данных.) Это означает, что эти гораздо более мощные большие языковые модели могут скатиться к саркастическому троллингу и похуже.

Сегодня Европейские политики практически не понимают, как регулировать онлайн-вред в нынешних условиях, таких как алгоритмически отсортированные платформы социальных сетей, где большую часть речи можно, по крайней мере, отследить до человека, не говоря уже о том, как генерация текста с помощью ИИ может усугубить проблему онлайн-токсичность, создавая новые затруднения вокруг ответственности.

И без четкой ответственности, вероятно, будет сложнее предотвратить использование систем ИИ для масштабирования языкового вреда.

Регуляторным органам придется решить эту проблему — и определить, кто несет ответственность за сообщения, генерируемые ИИ. Это означает борьбу со сложностью распределения ответственности, учитывая, сколько субъектов может быть вовлечено в применение и итерацию больших языковых моделей, а также в формирование и распространение выходных данных этих систем ИИ.

Но неясно, будет ли Закон ЕС об искусственном интеллекте в том виде, в каком он был разработан, обеспечить адекватную систему сдержек и противовесов в отношении вредоносных и/или безрассудных приложений больших языковых моделей, поскольку они классифицируются как системы искусственного интеллекта общего назначения, которые были исключены из первоначального проекта Комиссии.

В последние годы ЕС много сделал для скорости своего цифрового законодательства, но законодатели блока должны мыслить нестандартно в отношении существующих правил продукта, когда речь идет о системах ИИ, если они хотят установить значимые барьеры для быстро развивающихся технологий автоматизации и избежать лазеек, которые позволяют крупным игрокам продолжать уклоняться от своих социальных обязанностей. Никто не должен получить разрешение на автоматизацию причинения вреда — независимо от того, где в цепочке находится обучающая система этого «ящика Пандоры» и насколько велик или мал пользователь — иначе это мы, простые люди, окажемся наедине со всеми «подарками» из злополучного ящика.

По материалам статьи Тechcrunch.