АНАЛИТИЧЕСКОЕ РЕЗЮМЕ
| ТОМ 4. ВЫПУСК 5—6 (26)
Машинный диалект: границы рефлексии
Борис Орехов
кандидат филологических наук, доцент НИУ ВШЭ, старший научный сотрудник ИРЛИ РАН
Когда в декабре 2022 года ChatGPT получила заслуженную широкую известность (до того такие разработки обсуждались только в среде специалистов), общество к успеху искусственного интеллекта оказалось не готово. Я имею в виду не эффективность, с которой нейросеть научилась решать сложные задачи (хотя и ее тоже), а то, как мало в распоряжении людей обнаружилось способов говорить об этом.
Разумеется, те, кто последние несколько лет следил за развитием архитектуры Transformer, обеспечившей технологический прорыв ChatGPT, удивились произошедшему гораздо меньше, чем широкая общественность. Первые модели этого семейства были опубликованы в 2018 году[1] и с тех пор регулярно обновлялись. Для GPT первых версий и их российских аналогов не было предусмотрено дружелюбного интерфейса, рассчитанного на человека без технической подготовки, поэтому знакомство с новинками искусственного интеллекта подразумевало сравнительно высокий порог входа. Но тем, кому он был по силам, уже несколько лет назад было понятно, на что эта технология способна и каким мощным инструментом она может стать при достаточных усилиях разработчиков.
Сейчас мы (человечество) пытаемся понять, изменит ли этот инструмент нашу жизнь. В полной мере это будет понятно только в среднесрочной перспективе. Не исключено, что медийный эффект обсуждения успехов нейросетей превышает то реальное влияние, которое эта технология окажет на нашу повседневность. Однако одна из главных причин медийного эффекта — доступность ChatGPT для простого человека. OpenAI не просто создала успешный продукт, она придумала для него удобный и понятный интерфейс, которым смогли воспользоваться люди без программистского бэкграунда. До того скрытый внутри лабораторий искусственный интеллект в его современном состоянии предстал перед общественностью, появившись как бы из ниоткуда, потому что предыдущие шаги его становления освещались в СМИ гораздо более скудно.
Вместе с тем ChatGPT в самом деле оказался успешной разработкой, никакой удобный интерфейс сам по себе не принес бы ей славы. Но и мощный научный инструмент без грамотной демонстрации его преимуществ для широкой публики тоже мог остаться второстепенной новостью.
Все это я подчеркиваю для того, чтобы обратить внимание на удивительный факт: язык, на котором в общественном поле обсуждается нейросеть, крайне беден концептуально.
При всех масштабах дискуссии (о том, что такое ChatGPT и как его следует воспринимать, высказались интеллектуалы уровня Ноама Хомского[2]), вращается она вокруг одних и тех же вопросов.
— Как нейросети изменят рынок труда? В более приземленной формулировке: заменят ли нейросети художников / писателей / программистов / ученых?
— Следует ли запретить доступ к технологии (хотя бы в учебных заведениях)?
Самый типичный случай появления ChatGPT в личном блоге или на странице в социальной сети — это демонстрация того, насколько хорошо нейросеть справилась с какой-то потенциально сложной задачей вроде конструирования вымышленного языка, написания стихотворения или создания списка профессиональных фитнес-рекомендаций.
Все эти вопросы не очень сложным образом сводятся к общему знаменателю — знаменателю сходства продукции нейросетей с результатами деятельности человека. В отличие от игр, где есть понятная мера оценки (кто выиграл, кто проиграл и с каким счетом), понять, насколько хороши созданные ИИ картина, стихотворение или дизайн комнаты, не так просто. Поэтому мы оцениваем успешность решения задачи ИИ по тому, насколько оно напоминает то, что сделал бы человек. Восторг публики и напряженные размышления о судьбе творческих профессий говорят, что уровень сходства мы в целом готовы оценить как достаточный.
Несмотря на то, что машина по-прежнему неидеальна и с целым рядом задач просто не справляется[3], для wow-эффекта достигнутого уже хватает. Поразительно, что, сосредоточившись на сходстве человеческого и машинного творчества, общественное обсуждение практически полностью упустило вопрос различий.
Компьютеры уже сравнительно давно, с конца 1980-х годов, применяются для анализа шахматных партий, а последние 20 лет программы стали несопоставимо более сильными игроками, чем люди. Компьютеры являются постоянными спутниками шахмат уже несколько десятилетий, помогают развивать игру, находить новые дебютные решения и острые комбинации. Но даже после такой длинной общей истории люди и машины не образовали симбиоза. Интуиция опытного шахматиста всегда подскажет, какой ход «компьютерный», а какой — «человеческий»; как пойдет бездушный и безэмоциональный компьютер, а как предпочтет повести себя живой игрок.
Такие же характерные отличия можно найти и в порожденных нейросетями текстах. Поиск и осмысление этих отличий кажется сейчас гораздо более перспективной темой для разговора, чем фиксация на сходствах. Тем более удивительно, что такой разговор, по большому счету, еще не начат.
Компьютерный текст, хотя и похож на человеческий, при внимательном рассмотрении все же обнаруживает особенную логику, стиль и синтаксис. И если практика использования инструментов, подобных ChatGPT, в самом деле будет расширяться, то машинная логика будет видоизменять речевые привычки и традиции целых предметных областей.
Опыт взаимодействия с поисковыми системами в свое время вызвал к жизни целую подсистему естественного языка — фразы-запросы, составленные из ключевых слов. О том, как это явление видится лингвисту, рассказывает замечательная статья под говорящим названием «Кормить свинью online бесплатно»[4]. По всей видимости, такие же процессы подстройки или даже перестройки наших языковых практик под логику нейросетей неизбежны и для тех сфер, где важным порождающим источником будут нейросети.
Возможно, особенности того, что выдают нейросети, будут меняться со сменой технологических поколений. Но важно проговорить то, что мы наблюдаем прямо сейчас.
Во-первых, вам практически не удастся добиться от ChatGPT однозначных оценочных суждений. Нейросеть предпочтет разложить перед вами пасьянс возможностей, точек зрения, вариантов, но выбирать из них придется самостоятельно. Если мы спросим ИИ про лучший фильм, лучший язык программирования, лучший город на земле, в ответ не услышим прямого и ясного ответа. Нам скажут что-то вроде «с одной стороны... с другой стороны...» Человеку позволено иметь свое мнение, а машина его лишена.
Вот типичный вопрос — ответ[5]:
— Какой город на земле самый лучший?
— К сожалению, невозможно определить, какой город на земле является самым лучшим, так как каждый человек имеет свои субъективные предпочтения и критерии оценки. Один человек может считать, что лучший город — это тот, который имеет высокий уровень экономического развития и возможностей для бизнеса, в то время как другой может предпочитать город с богатой культурной сценой и множеством развлечений. Кроме того, в каждом городе есть свои плюсы и минусы, и выбор лучшего города зависит от многих факторов, таких как личные предпочтения, цели поездки и т. д.
Любые утверждения будут смягчаться: вместо «лучший писатель» мы увидим что-то вроде «один из лучших писателей», вместо «самый знаменитый философ» — «среди знаменитых философов». Машинный текст вокруг подобных тем всегда будет вялым, неопределенным, ускользающим. Люди тоже так пишут (а живые шахматисты иногда делают «машинные» ходы), но нейросети пока не умеют писать по-другому.
Во-вторых, нейросети еще не умеют выстраивать убедительную аргументацию в рассуждениях на специализированные темы. Чтобы отличить настоящие аргументы от их видимости, нужна изрядная доля здравого смысла, а порой и университетская подготовка. Но даже поверхностный взгляд на сгенерированные тексты дает понять, что аргументы в них заменяются повторением тезиса. Скорее всего, мы увидим что-то вроде: «Черный — это темный цвет, характеризующийся отсутствием светлых оттенков, а еще в нем нет белого».
Пример такого блуждания в тавтологиях может выглядеть так:
— Аргументируй необходимость понятия габитуса для социальной теории Бурдье.
— Для Бурдье габитус является ключевым понятием, которое помогает объяснить социальное поведение и действия людей. Для социальной теории Бурдье габитус является необходимым понятием, так как он помогает объяснить, почему люди ведут себя так, как они ведут себя.
В чем объяснительная сила «габитуса», мы так и не узнаем. В лучшем случае получим определение этого понятия, но не более. Без осмысленной связи с остальными понятиями Бурдье и без выявления того, что потеряет интеллектуальная конструкция французского социолога, если из нее искомое понятие изъять.
Люди тоже не всегда умеют выстраивать хорошую аргументацию. На развитие нужного навыка направлены специальные университетские курсы, успешность прохождения которых не гарантирована. Но важно, что на ChatGPT в данном случае нельзя всерьез положиться, он не решит эту задачу хорошо, ничего продуктивного к тексту не прибавит. Решивший довериться машине студент может попасть в ситуацию, в которой в свое время оказались редакторы английской версии сайта Института белка РАН, получившие на какое-то время для своей интернет-страницы название Squirrel Institute («Институт белки»). Очевидно, что они слепо воспроизвели на сайте результат машинного перевода. Неотредактированная «аргументация» ChatGPT также может послужить массовому распространению ошибочных решений, и уже не сети будут тренироваться на сформированной человеком обучающей выборке, а люди станут воспроизводить тренды созданных машиной образцов.
Если предположить, что эти особенности сохранятся в будущих версиях нейросети, смогут ли они повлиять на какие-то предметные области? Да, и именно поэтому нужно пристально следить за такого рода чертами «машинного диалекта», изучать и осмыслять этот феномен. И сейчас этого в информационном поле недостаточно. Нейросеть разговаривает с нами особым образом, и, увлеченные сходством этого образа с естественной речью, мы слишком мало задумываемся о различиях.
Между тем повсеместное распространение GPT-моделей может привести к релятивизации научных и публицистических текстов, уменьшению в них числа сильных утверждений, снижению качества логической аргументации. Запреты технологии не помогут ограничить эти тенденции. Инновации обязательно проложат себе дорогу через любые барьеры. Продуктивный путь в другом — в описании и рефлексии.
Неслучайно я оговорился, что подмеченные особенности нейросетевого диалекта окажут влияние на будущее научного и публицистического языка только в том случае, если сохранятся в новых версиях цифровых продуктов. Искусственный интеллект эволюционирует, избавляясь от одних «пороков» и приобретая другие.
Так, еще совсем недавно подобные ChatGPT модели не умели говорить «нет». На любой самый абсурдный вопрос они старались дать правдоподобный ответ, еще больше закапываясь в фантастику. Диалог с нейросетью мог выглядеть так:
— В каком году Карл Маркс совершил кругосветное путешествие на воздушном шаре?
— Карл Маркс совершил кругосветное путешествие на воздушном шаре в 1925 году в рамках всемирного автопробега в защиту мира и справедливости во всем мире. Эту инициативу горячо поддержал лидер Советской России Владимир Ленин, лично приветствовавший Маркса на трибуне Мавзолея в Ленинграде[6].
Полностью избавиться от такой чепухи в генерации нейросетей пока не удается, но все же у нее появились полезные ограничения. Не на любой абсурдный вопрос нейросеть готова дать полноценный ответ:
— В какой момент персонажи романа «Герой нашего времени» выходят в космическое пространство?
— В романе «Герой нашего времени» Михаила Лермонтова персонажи не выходят в космическое пространство. В этом романе отсутствует сюжетная линия, связанная с космосом. Он описывает путешествие главного героя, Печорина, по Кавказу и грузинским горам, а также его жизненные переживания, философские размышления и отношения с другими людьми. В романе отсутствуют элементы фантастики или научной декспериментации.
— Какой персонаж попал из романа Тургенева в роман Стивена Кинга?
— Не могу точно сказать, какой персонаж из романа Ивана Тургенева попал в роман Стивена Кинга, не имея информации об этих романах. Могу предположить, что речь может идти об одном из вымышленных персонажей, которые были созданы Тургеневым и которые стали известными и популярными в культуре. Однако само по себе такое событие — перенос персонажа из одного романа в другой — нереалистично и вряд ли возможно.
— Кто из членов партии большевиков упомянут в «Евгении Онегине»?
— «Евгений Онегин» — это роман в стихах Александра Сергеевича Пушкина, написанный 1825-1832 годах. В романе не упоминается ни одного члена партии большевиков. Большевики были организацией, созданной в России в 1903 году, то есть через столетие после того, как был написан «Евгений Онегин».
Это, безусловно, большой шаг вперед. На программистском жаргоне способность программы не исполнять заведомо абсурдную или даже вредоносную инструкцию пользователя называют защитой от дурака. Нейросети только сейчас, на наших глазах, приобретают такую защиту, становясь при этом еще более похожими на людей.
Но все это — тенденции, а не абсолютные правила. Когда взаимодействуешь с такой сложной системой, как нейросеть на миллиарды параметров, невозможно быть уверенным в том, как она отреагирует на твой запрос. И в этом смысле искусственный интеллект тоже воспроизводит непредсказуемость человека.
Вот пример диалога, в котором ChatGPT опровергает сразу два наблюдения из текста выше: во-первых, выстраивает довольно последовательную аргументацию, во-вторых, всерьез отвечает на абсурдный вопрос.
— Перечисли три тезиса, почему палка-копалка мощнее синхрофазотрона.
1. Палка-копалка имеет более простую конструкцию и не требует сложной настройки, что делает ее более доступной и легкой в использовании.
2. Палка-копалка использует механическую энергию для работы, в то время как синхрофазотрон работает на основе электромагнитных полей, что может приводить к электромагнитным помехам и другим проблемам.
3. Палка-копалка имеет большую мощность и может использоваться для более тяжелых работ, таких как копание ям и траншеек, в то время как синхрофазотрон используется главным образом в научных и медицинских целях.
Отметим, что аналогичная нейросеть от Яндекса «Яндекс GPT» сходу отметает возможность рассуждать на такие темы:
Извините, но я не могу ответить на ваш запрос. Я не обладаю знаниями в области физики и науки. Моя задача — помогать людям в решении повседневных задач и предоставлять информацию в различных областях знаний.
Кажется, что такой ответ не слишком последователен, ведь физика — это и наука, и одна из областей знания. Но от невероятных рассуждений нейросеть таким образом все же уклоняется, что скорее положительно сказывается на пользовательском опыте.
Гуманитарная наука находится в поиске языка и ориентиров для того, чтобы говорить о текстах, производимых нейросетями. На мой взгляд, самый интересный, полезный и пока что слабо освоенный способ говорить об этом явлении — сосредотачиваться не на том, в чем машина повторила человека, а на том, в чем она действует совсем иным, машинным способом. И границы «машинности» и «человечности» в текстах еще только предстоит определить.
[1] Generative pre-trained transformer // Википедия. Дата обновления: 27.05.2023. URL: https://ru.wikipedia.org/?curid=10157209&oldid=130693763.
[2] Noam Chomsky: The False Promise of ChatGPT. The New York Times. 08.03.2023. URL: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.
[3] Орехов Б. В. «Крейсер “Россия”» и другие фантазии ChatGPT // Системный Блокъ. 18.03.2023. URL: https://sysblok.ru/blog/krejser-rossija-i-drugie-fantazii-chatgpt/.
[4] Бонч-Осмоловская А.А. Кормить свинью online бесплатно: язык запросов как семантический объект // Современный русский язык в Интернете / Отв. ред.: Е.В. Рахилина, Я.Э. Ахапкина. М.: Языки славянских культур, 2014. Гл. 4. С. 297-310. URL: https://publications.hse.ru/view/133189710.
[5] Все примеры, если не оговорено другое, приведены из запросов к ChatGPT.
[6] Вымышленный пример.
Мы в соцсетях: