РАСШИРЕННЫЙ КОММЕНТАРИЙ
| ТОМ 4. ВЫПУСК 5—6 (26)
Кому доверяют те, кто доверяет ChatGPT?
Маргарита Фабрикант
кандидат социологических наук, кандидат психологических наук, ведущий научный сотрудник Лаборатории сравнительных исследований массового сознания Экспертного института НИУ ВШЭ; доцент кафедры социальной и организационной психологии факультета философии и социальных наук Белорусского государственного университета
Появление четвертой версии ChatGPT вызвало новую волну дискуссий о природе и перспективах искусственного интеллекта.[1] На то, что мы имеем дело не просто с очередной, а именно с новой волной обсуждения, указывают некоторые особенности его содержания.
Во-первых, на этот раз дело уже не в угрозах, которые искусственный интеллект может нести для представителей отдельных профессий, предположительно вытеснив или, по меньшей мере, потеснив их с рынка труда. Теперь речь идет ни много ни мало о сохранении самой культуры. То есть область страхов перемещается из экономики в намного менее прагматическую сферу. Ее значимость скорее нормативно предписываема, чем конкретизируема, и распространяется уже не на отдельные категории людей (в разной степени и с разной вероятностью), а на человечество в целом.
Во-вторых, теперь в центре внимания не принципиальная способность ИИ выполнять конкретные задачи, которые раньше считались человеческой прерогативой, а генерирование нейросетью продуктов, которые сами по себе занимательны, но неочевидны в плане практического применения.
Две эти особенности противоречат друг другу: почему в качестве угрозы глобальных масштабов в мире, оправляющемся от пандемии и, похоже, переживающем деглобализацию, предлагается видеть инструмент, способный изобразить персонажей «Игры престолов» в стилистике русских народных сказок? Безотносительно того, представляет ли собой ИИ реальную опасность или всего лишь привлек к себе внимание публичных интеллектуалов, выбравших «эффект Франкенштейна» в качестве ресурса для активизации новой темы, в чем публичные интеллектуалы постоянно нуждаются, почему на этот раз страхи, будь то обоснованные или иллюзорные, приняли именно такую форму?
Для ответа на этот вопрос посмотрим, в чем сходятся сторонники и скептики в отношении ИИ как угрозы культуре. А сходятся они в том, что последствия новых исследований ИИ и результатов их массового использования, позитивные или негативные, значительны и заслуживают серьезного отношения к себе.
Между тем это суждение далеко не самоочевидно. Объяснить его одним лишь массовым запросом на прорывы в сфере высоких технологий не удается. Достаточно сравнить его с намного более сдержанным и неоднозначным восприятием инноваций в других областях, связанных с высокими технологиями, — электрическими автомобилями или космической программой SpaceX, несмотря на яркий и узнаваемый образ «лица» обоих проектов, — Илона Маска. Кроме того, в отличие от этих проектов, равно как и когда-то сверхпопулярной, а затем с позором разоблаченной компании Theranos, проекты наподобие ChatGPT не претендуют на решение социально значимых и ценностно нагруженных практических задач, будь то в экологии, космосе или медицине. В случае ChatGPT значимость проекта определяется уверенностью в том, что мы имеем дело с прорывной технологией, но вот куда именно происходит этот прорыв, неочевидно. Возможно, вера в то, что прорыв действительно произойдет и окажется чем-то фундаментальным, подпитывается как раз абстрактностью ожидаемых изменений: поскольку неясно, что именно должно измениться, невозможно отследить, происходят ли эти изменения на самом деле. Иначе говоря, если неясно, какие именно задачи решаются, как определить, решаются они или нет? Те, кто боится новой реальности, и те, кто на нее надеется, одинаково склонны высматривать ее индикаторы и находить их.
Другой вопрос: в чем заключается новизна этой реальности? Как и в проектах, направленных на решение конкретных задач, ChatGPT и его аналоги не претендуют на постановку новых целей, и в публичном дискурсе такая возможность не обсуждается. Мы имеем дело с теми же целями и даже теми же, по своей форме, результатами. Однако средства достижения этих целей настолько инновационные, что, как ожидается, могут обессмыслить саму их постановку как самостоятельных целей в силу массовости, низкозатратности и легкодоступности результатов. Так что еще одна причина уверенности в значимости новых разработок в области ИИ, как ни парадоксально, отсутствие новизны в том, что касается конечного продукта: если мы всегда хотели получать именно это, значит, это важно.
Однако оба этих довода приводят к новому вопросу — почему не срабатывает механизм формирования подозрений по принципу «все не то, чем кажется?» Ведь десятилетия интернет-активности приучили нас к тому, что транслируемый образ может быть искаженным, неподлинным или искусственно сгенерированным. Благодаря интернету 2.0 искусственность самопрезентации, давно описанная в гофмановской микросоциологии, стала не только более явной для несоциологов, но и более привычной, даже фоновой. Почему же сгенерированные ИИ тексты и изображения воспринимаются как то, чем они кажутся, только на основании внешнего сходства? Более того, подчас выдаваемый продуктам ИИ кредит доверия выше, чем для их аналогов. Так, знакомый исследователь и преподаватель физико-математического профиля на днях делился опытом: его студенты, которые сами специализируются на изучении алгоритмов ИИ и достаточно хорошо осознают ненадежность значительной части интернет-источников, не задумываясь включают в свои работы тексты, сгенерированные ChatGPT, причем в результате первого же запроса, даже не пытаясь усовершенствовать очевидно не подходящие по стилю варианты. Таким образом, в основе уверенности в значимости новых алгоритмов ИИ и идентичности его продуктов «натуральным» оказывается высокий уровень доверия. Но доверия к чему именно? Или к кому?
На мой взгляд, для ответа на эти вопросы достаточно обратить внимание на два момента.
Первый — коммуникативная структура использования алгоритмов. Запуск алгоритма имеет форму не механического запуска наподобие нажатия на кнопку или даже озвучивания команды, а формирования запроса. Причем в ответ на полученный результат запрос может корректироваться, что создает двусторонний характер взаимодействия. Сама отсылка к чату в названии ChatGPT указывает на то, что предполагается не извлечение информации из или посредством некоего инструмента, а общение. Осталось определить, с кем.
И здесь важен второй момент — эти алгоритмы основаны на автоматической переработке огромных массивов информации, представленной в виде уже имеющихся текстов (а также, разумеется, изображений, видеозаписей и т. д.). Субъективность отбора и субъектность отдельных авторов при этом растворяются в имперсональном алгоритме и репрезентативности первичных материалов в силу их объема.
Именно эта имперсональность и всеохватность могут вызывать доверие. Ведь мы приучены критически относиться к отдельным участникам взаимодействия, поскольку те могут преследовать свои интересы, а пользователь ChatGPT, по сути, получает в собеседники общество в целом! Решить эту задачу оказалось проще, чем искусственно воссоздать индивидуальность одной отдельно взятой личности («записать мозг на флешку»). Так что искусственный интеллект, предлагая каждому из нас в виртуальные собеседники целое общество, не только не уничтожает, но, напротив, подтверждает ценность прямого межличностного общения. По крайней мере, пока...
[1] Исследование выполнено в рамках Программы фундаментальных исследований НИУ ВШЭ.
Мы в соцсетях: