РАСШИРЕННЫЙ КОММЕНТАРИЙ

| ТОМ 4. ВЫПУСК 5—6 (26)

ChatGPT как повод для новых вопросов

Сергей Стрельников

кандидат философских наук, доцент кафедры медицинской информатики и биологической физики Тюменского государственного медицинского университета

Если речь заходит о каком-либо новом явлении, которое до настоящего момента не демонстрировало свое влияние на общественные отношения, возможны как минимум две реакции. Они появляются тогда, когда существование этого явления для нас небезразлично и мы задаемся целью сформировать собственное отношение и выразить мнение, очевидное для себя и других. Так устроено человеческое познание: если не учитывать в познавательном процессе других субъектов, то такой процесс всегда будет восприниматься однобоко — как с точки зрения полноты его познания (познание для субъекта), так и с точки зрения фиксации и распространения опыта такого познания (познание для других).

Первая реакция призывает как можно скорее опробовать эту технологию или явление. Желательно опробовать на себе, дабы ощутить ее в своем непосредственном опыте, погрузиться в соответствующий информационный поток, бегло ознакомиться с самыми свежими новостями. При такой реакции мы стремимся «схватить» те впечатления, что у нас есть от наблюдения и взаимодействия с явлением, пока они еще свежи, зафиксировать их и поделиться с окружающими, дополнив своими же соображениями о том, как это явление будет развиваться. Заманчиво примерить на себя лавры первопроходца и визионера, разглядевшего то, чего не видят остальные, угадавшего наступившее будущее. Задача состоит лишь в том, чтобы максимально быстро и емко выразить эти впечатления. В то же время такая реакция связана с риском изначально неверной оценки и выводов, которые затем будут выглядеть как очевидно скоропалительные и несоответствующие реальности. Ошибка в прогнозе относительно распространения какой-либо технологии может быть фатальной либо же комичной. Можно вспомнить, как скептически министр финансов эпохи Александра I Егор Канкрин относился к развитию железных дорог: "...Не составляет предмета естественной необходимости, а только искусственную надобность и роскошь...«[1] Сюда же относятся высказывания об утоплении Лондона в лошадином навозе от повышенного трафика, невозможности летательных аппаратов тяжелее воздуха, невостребованности персональных компьютеров. В любом случае для того, чтобы прославиться в хорошем или плохом смысле, нужно сделать высказывание, причем быстро.

Вторая реакция призывает не торопиться вступать в непосредственный контакт с технологией и понаблюдать за тем, как она используется другими. Погружение в информационный поток более медленное, оно предполагает вдумчивое чтение и длящееся наблюдение, продолжительный сбор информации и ее анализ. При такой реакции мы даем явлению время на то, чтобы оно «развернулось», показало себя во всех аспектах, чтобы о нем было высказано мнение других, — и уже на основании всей этой информации формулируем собственную позицию. Скорее всего, мы будем ссылаться на уже высказанные мнения, с которыми будем соглашаться или спорить, и вряд ли нас признают визионерами и первопроходцами. «Схватить» же нам удастся состояние дискуссии о явлении, но не само явление как таковое. Впрочем, иногда дискуссия представляется даже более важной, нежели явление само по себе. Если мы признаем свою ограниченность в создании адекватных прогнозов и не хотим курьезной славы, гораздо безопаснее послушать, что говорят другие, и выработать позицию, которую сами определяем как взвешенную.

Оба этих подхода имеют право на существование, более того — вероятно, успешная стратегия заключается в их комбинации. Уникальность такой комбинации формирует опыт каждого исследователя.

Эти соображения в полной мере касаются развития технологий искусственного интеллекта, которые, существуя уже довольно давно, проявили себя в виде внезапно появившегося веб-сервиса ChatGPT. Для специалистов, изучающих сферу ИИ, приход этого сервиса в широкое пользование, вероятно, был ожидаемым и прогнозируемым: тренд проникновения подобных технологий в нашу жизнь прослеживался на протяжении последнего десятилетия. Вместе с тем фактор влияния ИИ на общественные отношения становится сложно игнорировать, в том числе тем ученым, которые концентрируются на изучении социальных процессов, как раз в силу его всепроникающего влияния.

Одной из стратегий, совмещающей обе реакции на появление новых технологий, является формулировка вопросов. Порой важно поставить вопросы, на которые наблюдатель не может дать однозначного ответа. Вполне возможно, что сама по себе формулировка такого вопроса может многое сказать — о ее авторе, о том, как он видит явление, как именно его проблематизирует. В полной мере это касается и ChatGPT.

Прежде всего это вопрос, относящийся к статусу текста, а точнее — к такому его качеству, как оригинальность. Если существует технология, которая в состоянии создавать некий потенциально неограниченный объем текста, воспринимаемого другими системами как оригинальный, то можем ли мы назвать его таковым? Наиболее ярко эта возможность проявилась при подготовке письменных работ в сфере образования. В условиях распространения технологии генеративных нейронных сетей практически бесполезными становятся системы противодействия плагиату. Показательна в этом плане реакция преподавателей, которые давно используют эти системы в своей практике: они полагают, что в будущем может появиться некое дополнение к системе, модуль, позволяющий однозначно идентифицировать текст как написанный ИИ. Даже если предположить появление такого модуля, который работает относительно безошибочно, не превращается ли взаимодействие студента и преподавателя в поле противодействия двух нейросетей, одна из которых продуцирует текст, а другая пытается ее идентифицировать по продукции, фактически исключая из этого взаимодействия между людьми? Представляется, что здесь нужно задуматься о двух моментах. Первый заключается в том, чтобы уделять больше внимания не результату в виде текста, а процессу его подготовки. Изучать этот процесс, контролировать его — нетривиальная задача, но ее, скорее всего, придется решать. Как мы создаем текст, на что при этом опираемся? Второй момент заключается в том, что экспертное знание, выраженное исключительно в форме текста, скоро утратит свое бытование. Иначе говоря, простого текста, отражающего экспертность субъекта, его издавшего, станет мало. Чем же мы можем дополнить текст, выражающий экспертное знание?

Существование ChatGPT проявило также сущность наших социальных взаимодействий и информационных обменов. В рассуждениях о злоупотреблениях в качестве возможного примера приводится схема, в которой мошенник, желающий получить доступ к финансам или иной значимой информации человека, на основе анализа его страницы в социальных сетях с помощью ИИ создает поддельную страницу одного из его друзей с последующей имитацией поведения последнего вплоть до совершения онлайн-видеозвонка с генерацией видео. Такая гипотетическая ситуация открывает возможность поразмышлять о том, насколько мы искренни с теми, кого называем друзьями, о качестве общения в сети, о том, каково содержание такого общения, по поводу чего оно возникает. Сегодня мы склонны строить сетевые взаимодействия с другими людьми, включая в это взаимодействие огромное число посредников, каждый из которых вносит свой вклад в качественные и количественные характеристики той информации, которой мы обмениваемся. Встраивание в эти сети еще одного актора в лице ИИ, генерирующего текст, уже содержит в себе риски, связанные с подрывом доверия к нашему собеседнику, — насколько он искренен с нами? Не использует ли он чат-бота для взаимодействия, делегируя ему ведение беседы, не считает ли он наше общение обузой? Из этого вытекает проблема доверия. Существование чат-бота становится невозможно игнорировать и, соответственно, его приходится учитывать при взаимодействии. Насколько мы можем доверять данным, которые предоставляются чат-ботом для пользователей? Проще ли нам доверять чат-боту, чем живому человеку? Будем ли мы больше или меньше доверять друг другу, когда знаем, что собеседник для беседы с нами может использовать посредника в виде чат-бота?

Кстати, высказанное выше в полной мере касается и профессиональной коммуникации, а не только дружеского взаимодействия. Мы не можем игнорировать существование чат-бота и тогда, когда речь идет о нашем ознакомлении с научными текстами: сложно хотя бы не пытаться оценивать, использовали ли коллеги при подготовке текста статьи технологии, подобные ChatGPT. Насколько оправданно при этом будет включать нейросеть в соавторы или указывать в сноске, что текст был создан нейросетью по определенному запросу? Что делать, если автор статьи взял выдачу чат-бота, но существенно перефразировал ее? В данном случае мы уже говорим о доверии в сфере экспертного и научного знания, что создает повод поразмышлять о том, как мы создаем научные статьи, как мы их читаем.

Еще один из вопросов, касающихся подрыва доверия, связан с тем, доверяем ли мы создателям самого чат-бота, которые им управляют и в состоянии регулировать параметры его деятельности. Должен ли создатель такой технологии подробно объяснять, как именно она работает, и что делать, если он относительно честно признается, что сам не в состоянии предсказать, какой именно ответ может выдать нейросеть на тот или иной запрос? Насколько прозрачно внесение изменений в алгоритм и на чем основываются такие изменения? Как на принятие таких решений влияют пользовательский опыт и те запросы, которые отправляет пользователь?

Все вышеизложенное позволяет прийти не только к вопросам, но и к утверждениям, хотя и не бесспорным. Бытование технологии ChatGPT больше всего говорит о тех, кто ее использует, и это закономерно представляет больший интерес для исследователя-гуманитария, нежели технический аспект работы ИИ.

Вероятно, нужно внимательнее относиться к вопросам, которые мы задаем. Можно даже предположить, что наши вопросы действительно больше говорят о нас, чем получаемые ответы. Мы можем пытаться манипулировать собеседником, зная его особенности и ограничения, или спрашиваем «в лоб», не конкретизируя, чего именно хотим, или же, напротив, начинаем очень подробно описывать то, что хотим услышать в ответ, как бы избавляя собеседника от необходимости отвечать. В любом случае нам нужно понять, что мы хотим услышать, когда формулируем тот или иной вопрос: чтобы наши мысли подтвердили или опровергли? Или хотим получить некое оригинальное суждение? Или рассчитываем, что собеседник воспроизведет какой-то определенный нарратив, позволяющий его классифицировать, идентифицировать и дальше строить с ним стратегию взаимодействия? Это также повод задуматься, насколько аутентично мы сами звучим, насколько оригинальны наши собственные суждения.

Наконец, нам нужно критически оценивать скорость, с которой мы получаем ответы на наши вопросы. Как и в случае с поиском в интернете, не всегда первый и даже релевантный нашему запросу в поисковой системе результат может нас удовлетворить, не всегда максимально быстро высказанный ответ будет безошибочным. Жизнь стремительно ускоряется, но человеческое внимание имеет свои ограничения, и эти ограничения нам тоже следует учитывать. Практики «медленного чтения», «медленной жизни» показывают свою ценность и в какой-то степени могут считаться даже элементом роскоши. Но порой лучше искать осмысленно, чем удовлетворяться первым попавшимся вариантом, как бы нас ни склоняла к тому наша ускорившаяся жизнь.

 


[1] Owes T. C. (1991) The Corporation under Russian Law, 1800–1917: A Study in Tsarist Economic Policy. New York: Cambridge University Press. P. 15–16.

Мы в соцсетях:


Издатель: АО ВЦИОМ

119034, г. Москва,

ул. Пречистенка, д. 38, пом.1

Тел. +7 495 748-08-07

Следите за нашими обновлениями:

ВЦИОМ Вконтакте ВЦИОМ Телеграм ВЦИОМ Дзен

Задать вопрос или оставить комментарий: