АНАЛИТИЧЕСКОЕ РЕЗЮМЕ

| ТОМ 4. ВЫПУСК 5—6 (26)

ChatGPT в повседневной жизни общества: проблемы и ограничения

Андрей Резаев

доктор философских наук, профессор, руководитель Международной исследовательской лаборатории ТАНДЕМ, СПбГУ

Наталья Трегубова

кандидат социологических наук, доцент кафедры сравнительной социологии, СПбГУ

Проблема контроля над инструментами искусственного интеллекта (ИИ) возникла еще тогда, когда самого термина «искусственный интеллект» не существовало. В 1948 году Норберт Винер опубликовал книгу «Cybernetics, оr Control and Communication in the Animal and the Machine», в которой писал:

 

Мы уже в состоянии построить искусственные машины почти со сколь угодно сложным поведением. Еще задолго до Нагасаки и до того, как общественности стало известно о существовании атомной бомбы, мне пришла мысль, что мы стоим перед лицом другой социальной силы, несущей неслыханные возможности для добра и для зла[1].

 

В середине XX века искусственный интеллект был «логической игрушкой», предметом философских споров, источником энтузиазма для научно-технических работников и научных фантастов. В начале XXI века технологии ИИ становятся — и уже стали — частью повседневности, а проблема контроля никуда не исчезает. И новый виток ее обсуждения связан с появлением и небывалой популярностью ChatGPT.

Очередным поводом для разговора об ограничении ИИ и контроле за ним стало открытое письмо, опубликованное организацией Future of Life Institute 22 марта 2023 года[2] под названием «Остановите гигантские эксперименты с искусственным интеллектом» (Pause Giant AI Experiments: An Open Letter)[3]. Письмо, а точнее тревога, содержащаяся в нем, вызвала широкий мировой резонанс. Всего за одну неделю письмо собрало более 20 тыс. подписей — ученых, общественных деятелей, известнейших китайских и американских предпринимателей. Его подписали Илон Маск, Стив Возняк, Стюарт Расселл.

Очевидно, что оценивать и использовать ChatGPT и другие инструменты ИИ необходимо только при условии ясного понимания их возможностей и ограничений в повседневной жизни общества. А для этого понимания необходимо прежде всего ответить на вопрос, какие же проблемы создает ChatGPT. Уже сегодня их можно выделить как минимум пять.

 

1. Смена парадигмы в образовании.

Первая серьезная социальная проблема, возникающая в связи с появлением ChatGPT, лежит в сфере образования, особенно по социальным и гуманитарным дисциплинам. То есть, вероятно, прямо и непосредственно касается читателей СоциоДиггера.

Проблему можно проиллюстрировать на примере экзамена. Что сегодня представляет собой экзамен по любым предметам в школе (начальной, средней, высшей)? Это не что иное, как попытка каким-либо образом сгенерировать (компилировать) текст из доступных источников с их минимальным анализом или необходимость ответить на заданные заранее вопросы. Очевидно, что ChatGPT при любых обстоятельствах сможет сделать это на достаточно (для получения средней, не отличной / отличающейся оценки) приемлемом уровне, да еще и в разы быстрее и эффективнее, чем любой ученик.

Иными словами, образование на наших глазах должно коренным образом перестроить стратегию и тактику оценки получаемой информации/знаний. Учить мыслить — уже не просто красивая фраза, а требование дня. А что такое учить мыслить? Как вообще человек мыслит? Есть ли однозначные ответы на эти простые вопросы?

Очевидно, что парадигма образования должна полностью измениться. Иным будет подход к знаниям, к пониманию того, что является знанием, подход к оценке знаний, поиску новых элементов, которые следует оценивать в ходе образования. И чем раньше это произойдет, тем лучше для общества.

Ученик должен учиться работать с данными, но с теми данными, которые следует самостоятельно (или с помощью инструментов ИИ) искать, анализировать, учиться анализировать поиск информации, уточнять поиск, обязательно сравнивать и понимать адекватность данных, которые приходят в ответ на поисковый запрос в интернете или каких-либо компьютерных системах/цифровых платформах.

Принципиальный вопрос: кто его/ее (ученика) будет учить? ChatGPT? Нейросеть — хороший и эффективный инструктор, тренер, но не учитель.

 

2. «Новая элитарная культура».

Вторая проблема прямо связана с образованием и социализацией. Не является ли ChatGPT предвестником «новой элитарной культуры»? Ведь просто биологически и физиологически невозможно обеспечить ситуацию, когда каждый ученик/студент будет более оригинальным, более критически мыслящим и подготовленным к аналитической работе, чем ChatGPT. Значит, получится так, что задачами образования будет подготовка немногих людей, которые смогут реализовывать принцип «быстрее, выше, сильнее» в оригинальности мышления и творчества, возможности выдвигать идеи и направления мышления.

Ситуация достаточно проста: когда алгоритм поступает «нелогично» или совершает ошибку, его надо перенастроить, починить. Когда человек поступает «нет так» в решении какой-либо задачи — он может быть просто гением и совершить прорыв. Точнее, оригинальное и гениальное всегда нетривиально, творец становится гениальным в основном тогда, когда совершает «ошибки» во много раз повторенных решениях. Отсюда, создать «алгоритм гения» невозможно, поскольку машину, совершающую ошибку, будут постоянно чинить. Равно как и невозможно сделать из гения машину.

С другой стороны — останутся те, кого ChatGPT все-таки заменит.

 

3. Лишние люди.

Третья проблема состоит в том, чем занять людей, которых на рынке труда заменил алгоритм. Точнее, не просто заменил, а сделал этих людей «лишними» в системе координат рабочих профессий, ведь для них просто нет другой работы[4].

Результаты, показывающие самообучающиеся нейронные сети сегодня, требуют, по крайней мере, задуматься о перспективах подготовки кадров в какой-то одной узкой специальности, особенно в тех из них, которые имеют отношение к работе с текстами. Надо ли быть специалистами «широкого» профиля? Для ответа на этот вопрос нужно уточнить, что такое "специалис«т сегодня[5].

Главное в понимании влияния ChatGPT на рабочие места, на наш взгляд, состоит в том, что ИИ «уничтожит» не сами рабочие места, а то, как эти места описаны и представлены в номенклатуре специальностей. Изменится описание того, что должен делать тот или другой «специалист», его роль и функция.

Строго говоря, не ИИ заберет у человека работу: другой человек, который использует инструменты ИИ, заберет у вас работу. Это очень серьезный момент для понимания задач, встающих перед социальными аналитиками.

 

4. Искусственно-интеллектуальное конструирование реальности.

Начнем с того, что самые «продвинутые» инструменты ИИ могут производить и производят не только несовершенный «продукт» (в первую очередь тексты), но и то, что называется «небылицами», «выдумкой», «фейками». В профессиональной литературе используется термин «галлюцинации» (hallucinations). ИИ придумывает факты, конструирует некую реальность, которая существует только в его «системе координат». Суть этого «искусственно-интеллектуального конструирования реальности» состоит в том, что реальный субъект (человек) спрашивает (задает prompt) алгоритм о реальных людях или происшедших событиях. Алгоритм убедительно, в логике/стилистике/грамматике задающего вопрос производит «небылицы» ― то, что в реальности не было, не существовало, но может быть и уже становится достоянием "искусственно-интеллектуального существования«[6].

Откуда и почему у ИИ возникают галлюцинации? Ученые не знают ответ на этот вопрос. Инженеры и разработчики инструментов ИИ не могут определить источник и причины формирования галлюцинаций у своих «подопечных». Нам представляется, что наиболее очевидное объяснение причин галлюцинаций ИИ состоит в том, что изначально алгоритмы запрограммированы и ориентированы на «обучение» для создания убедительных и логически и стилистически непротиворечивых текстов / знаков / символов, а не на то, чтобы отличить факт/реальность от вымысла/фантазии.

«Галлюцинации» — это мягкий термин для понимания «искусственно-интеллектуальной реальности». В социальной повседневности это есть не что иное, как ложь и вымысел. То есть то, что разрушает социальность, не объединяет людей, а разъединяет.

 

5. Псевдоинтеллект.

Пятая — и главная, на наш взгляд, — проблема состоит в очень простом факте — в небывалой популярности технологии ChatGPT. То, с какой легкостью люди кинулись к ней, чтобы решать рабочие и учебные задачи, «играть» с ней, учить ее и учиться у нее, искать ответы на экзистенциальные (смысложизненные) вопросы, — не может не настораживать.

В чем здесь проблема? В том, что сам чат-бот пишет банальности, воспроизводит среднестатистические (для неопределенной, но узнаваемой популяции) суждения. Это программа-«середнячок». Она гораздо менее интересна, чем почти любой человек — если человека разговорить, разумеется.

Люди не машины, а машины не люди. То, как ChatGPT генерирует тексты, по многим параметрам отличается от того, как это делают люди. Тем не менее обсуждаются чудесные способности чат-бота, будто бы превосходящие способности людей. В действительности же то, что мы имеем, — это банальные или посредственные тексты, вовсе не всегда «настроенные» на запросы пользователей. Это не интеллект в том смысле, который мы обычно прилагаем к людям, — это псевдоинтеллект.

Тексты, сгенерированные ChatGPT, можно сравнить с «типовой» поп-музыкой. Тексты же, созданные людьми, представляют целую палитру жанров — от классики до «попсы».

Проблемы, стоящие сегодня перед человечеством, — проблемы моральные, социальные, экологические — требуют для своего решения культивировать человеческое в человеке. Популярность технологий типа ChatGPT приводит к обратному: человеческое и машинное отождествляются и уравниваются.

Выделенные проблемы побуждают нас сформулировать следующий тезис: несмотря на многочисленные преимущества, связанные с использованием ChatGPT и других инструментов ИИ, существуют ситуации, в которых использование этих инструментов может быть нежелательным или недопустимым.

 

Где и почему нельзя использовать ChatGPT и другие инструменты ИИ?

Вот несколько примеров того, в каких ситуациях недостатки/недоработки технологий ИИ обусловливают необходимость ограничить их применение.

1) Использование ChatGPT и других инструментов ИИ может быть недопустимым в случаях, когда оно нарушает приватность и конфиденциальность личных данных. Например, при использовании этих инструментов для автоматической обработки медицинских карт пациентов или персональных данных клиентов в банках.

2) Применение ChatGPT и других инструментов ИИ может быть нежелательным в случаях, когда это приводит к дискриминации или неравенству, например, при использовании этих инструментов в решениях, связанных с трудоустройством или предоставлением кредитов/займов.

3) Использование ChatGPT и других инструментов ИИ может быть ограничено там, где для принятия решений необходим человек, например, при оценке художественных произведений или при принятии решений, связанных с жизнью и здоровьем людей.

4) Серьезным моментом для использования инструментов ИИ является понимание сущности личных (взаимо)отношений. ChatGPT и другие инструменты ИИ принципиально ограничены в «чувствовании», в понимании человеческих эмоций, что делает их непригодными для замены межличностного общения, хотя для обмена информацией они очень эффективны.

5) Нам представляется, что возможности ChatGPT и других инструментов ИИ ограничены в создании новых и оригинальных идей и произведений искусства, которые могут быть произведены только человеческим творческим мышлением.

6) Наконец, использование ChatGPT и других инструментов ИИ должно быть ограничено там, где их применение может создать угрозу для безопасности или стабильности социальных систем (например, случаи, касающиеся национальной безопасности отдельных стран, проведения военных операций или экономической стабильности в тех или иных государствах или в мире в целом).

 


[1] Винер Н. Кибернетика, или управление и связь в животном и машине. 2-е издание. М.: Наука; Главная редакция изданий для зарубежных стран, 1983. С. 78.

[2] Future of Life Institute, FLI (Институт жизни будущего) был учрежден девять лет назад Яаном Таллином (Jaan Tallinn), одним из создателей Skype, Максом Тегмарком (Max Tegmark), профессором Массачусетского технологического института (MIT), и Викторией Краковна (Viktoriya Krakovna), исследовательницей AI из DeepMind. FLI — некоммерческая организация, ее миссия: ориентация трансформационных технологий на благо жизни и избавление от экстремальных крупномасштабных рисков (https://futureoflife. org/). Главную угрозу мирному существованию FLI видит в самых передовых рубежах современной науки — в искусственном интеллекте и биотехнологиях, а также в разработках ядерного оружия и борьбе с всемирным потеплением.

[3] Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife. org/open-letter/pause-giant-ai-experiments/.

[4] В качестве лишь одного примера того, где технологии ИИ уже вытесняют человека, приведем «синтетические медиа» (synthetic media). Это медиа, где целиком или частично текст/контекст генерируют и манипулируют с помощью алгоритма.

[5] Раньше была такая разновидность специальности тракториста — «тракторист широкого профиля». Она предполагала, что владелец такой специальности мог работать и на гусеничном, и на колесном тракторе. Но он оставался трактористом. Что сегодня должен означать «журналист широкого профиля» или «бухгалтер широкого профиля»?

[6] К примеру, на занятиях по сравнительной социологии в апреле 2023 г. студенты присылали тексты, которые они должны были сделать в качестве домашней работы, но за них эту работу выполнил ChatGPT. Это стало ясно потому, что вместо сравнения международных конгрессов по социологии модель придумывала всемирные конгрессы, которые не существовали.

Мы в соцсетях:


Издатель: АО ВЦИОМ

119034, г. Москва,

ул. Пречистенка, д. 38, пом.1

Тел. +7 495 748-08-07

Следите за нашими обновлениями:

ВЦИОМ Вконтакте ВЦИОМ Телеграм ВЦИОМ Дзен

Задать вопрос или оставить комментарий: