РАСШИРЕННЫЙ КОММЕНТАРИЙ

| ТОМ 4. ВЫПУСК 5—6 (26)

Наша новая академическая реальность

Владимир Никольский

доктор философских наук, профессор, главный редактор журнала «Высшее образование в России»

На наш взгляд, большинство поднимаемых в дискуссиях вопросов, связанных с ChatGPT, могут быть решены и уже решаются либо техническими средствами, либо путем консенсуса — договоренности того или иного сообщества. Уже достаточно много написано об ограничениях в использовании ChatGPT, о создании им ложного контента, сомнениях в надежности предоставляемых данных[1]. Решения для большинства возникающих проблем, связанных с конфиденциальностью, авторскими правами и прочими вполне очевидными этическими следствиями, уже известны и «упакованы» в различные кодексы и руководящие принципы ответственного использования[2][3].

Например, проблему неправомерного присвоения студентами или учеными результатов работы ИИ предлагают решать внедрением так называемых водяных знаков — специального кода, невидимого для читателя, но позволяющего идентифицировать текст как созданный ИИ. Уже сейчас появляются программы, которые претендуют на то, чтобы выводить на чистую воду авторов, полагающих, что можно написать дипломную работу или научную статью с помощью ChatGPT и никто ничего не заметит.

Текущее обсуждение дрейфует в сторону отказа рассматривать ChatGPT как субъекта, автора или соавтора и признания за ним лишь статуса цифрового инструмента — наряду с математическими программами, формами для анкетирования и прочим программным обеспечением, которое широко используется в академической среде. В результате все многообразие проблем может быть решено применением принципа прозрачности — открытым указанием на использование ИИ в тех или иных случаях.

Так или иначе, многое из того, что приходит в голову на уровне здравого смысла уже есть в академических дискуссиях. Но чего же тогда нет? Что не очевидно? Я хочу посмотреть на то, что не исправляется ни техническим совершенствованием ИИ, ни нашим ответственным использованием. В этой связи я говорю одновременно и о свойствах искусственного интеллекта, и о некоторых качествах личности.

Мой основной тезис заключается в том, что искусственный интеллект в форме ChatGPT является культурно зависимым субъектом коммуникации с человеком.

В этом суждении я предлагаю рассмотреть два вопроса: (1) в каком смысле можно называть ChatGPT коммуникативным субъектом? (2) что означает его культурная зависимость?

 

Воспринимаемая субъектность

Почему ИИ в воплощении ChatGPT следует рассматривать в качестве субъекта коммуникации? Во-первых, в силу того, что люди воспринимают его как субъекта. ChatGPT успешно имитирует коммуникацию, и люди воспринимают переписку с чат-ботом как вид социального общения. То есть взаимодействие с ChatGPT выступает формой передачи общественного опыта, культурного наследия, накопленного человечеством.

Во-вторых, из коммуникации с ChatGPT люди извлекают для себя смысл, а также испытывают влияние в принятии решений. Иными словами, коммуникация человека с ИИ не является чем-то неполноценным по сравнению с коммуникацией между человеком и человеком, поскольку обладает для человека самостоятельной ценностью.

ChatGPT уверенно прошел тест Тьюринга, но при этом оказался способен на так называемые галлюцинации — ошибки и подмены содержания. То есть ChatGPT создает устойчивую иллюзию общения не только в силу способности давать требуемые ответы, но и в силу генерации ложного контента и неустойчивости своих «моральных принципов». Исследование показало, что ChatGPT не имеет устойчивой «моральной позиции», поскольку дает противоположные ответы по одному и тому же вопросу[4]. С одной стороны, это накладывает ограничения на его использование, а с другой — роднит с человеком.

Известно при этом, что люди склонны доверять ответам ChatGPT, не проверяя полученные данные и даже игнорируя противоречивую информацию[5]. Возможно, по этой причине в литературе так много алармистских настроений. Справедливости ради надо сказать, что люди верят не только искусственному интеллекту, но и древнегреческой трагедии, радиопостановкам, телевизионным сериалам, воспринимая описываемые в них события их как реально происходящие. Мы искренне переживаем во время театральной постановки, хотя твердо убеждены, что перед нами актеры, а сама история выдумана автором.

Таким образом, человек реагирует на ИИ как на социального субъекта не потому, что не понимает сущности технологий, а в силу своих особенностей. В наш просвещенный век люди понимают, что имеют дело с искусственным интеллектом, но ведут себя с ним как с социальным субъектом. Иными словами, люди воспринимают технологии в качестве коммуникативного субъекта, самоценного, но не тождественного человеку.

Это определенным образом «взламывает» коммуникативную теорию, которая в качестве субъекта коммуникации традиционно рассматривала только человека[6]. Речь идет о смещении дискуссий от человеко-машинного взаимодействия к человеко-машинной коммуникации[7].

Впрочем, требуются эмпирические исследования, которые бы позволили более развернуто ответить на вопрос о специфике восприятия ИИ в качестве субъекта коммуникации.

 

Конструирование реальности

Важно понимать, что ИИ, претендующий давать ответы на наши вопросы, одновременно претендует на интерпретацию этих вопросов, которая всегда культурно обусловлена. ChatGPT помещает наш запрос в некоторый контекст, помогающий ему подобрать статистически релевантный ответ. То есть ИИ подбирает наиболее вероятную последовательность слов, исходя из анализа гигантского массива прежде всего англоязычных текстов, и сам этот процесс культурно нейтрален. Но одновременно надо учитывать, что эти вероятностные последовательности не нейтральны по отношению к тому контексту, в котором они созданы. Обученный на текстах западной культуры ИИ «понимает» мои вопросы соответствующим образом.

Для иллюстрации возьмем близкие нам социальные и гуманитарные науки, поскольку в отличие от точных наук они критически зависят от культурного контекста, в котором интерпретируются знания. Проблематика, обсуждаемая на страницах академической печати, далеко не нейтральна политически, культурно и морально. Исследования мультикультурализма, проблематика ЛГБТ-сообщества и т. п. не являются предметом исключительно непредвзятого, объективного научного осмысления. В этих дискуссиях многое зависит от политических и моральных позиций их участников. Кроме этого, представления об актуальности тематики в значительной мере зависят от национального контекста. Например, в исследованиях образования широко обсуждаемые на Западе гендерные и расовые вопросы не находят у российских исследователей схожего интереса.

Можно ли в этом случае говорить о культурно зависимом ИИ? На наш взгляд, разговор о культурной зависимости языковых моделей поможет понять влияние ИИ на наши суждения и восприятие мира. Говоря конструктивистским языком, речь идет о том, как ChatGPT создает нашу реальность или, точнее, нашу академическую реальность.

Сейчас мы не знаем, на каком материале обучен ChatGPT, можно ли считать эти источники проверенными и надежными. Но даже если в дальнейшем подобная языковая модель будет обучена на основе вполне надежных источников, она так или иначе будет нести на себе печать той культуры, внутри которой эти тексты были созданы[8].

 

Главный вопрос

Учитывают ли разработчики и пользователи, что «общение» человека и ИИ не является исключительно рациональным и с неизбежностью включает сложные социальные и культурные контексты? И что это значит для нашей академической реальности?

Рассмотрение ИИ в форме ChatGPT в качестве субъекта коммуникации означает, что человек приобретает новый культурный опыт, который неизбежно потребует трансляции. Я полагаю, что в ближайшее время появятся образовательные мероприятия, тренинги или что-то похожее по обучению коммуникации с ИИ для получения требуемого результата и минимизации рисков.

Мы должны не только повышать свою цифровую грамотность, знать ограничения в использовании ИИ[9], лучше понимать технические характеристики с целью смягчения последствий неприемлемого использования и злоупотреблений[10]. Нам также следует лучше узнать самих себя и разобраться в собственных ограничениях, осознать, насколько сильно чат-бот, имитирующий живое общение, влияет на наше восприятие действительности и, в конце-концов, на наш моральный выбор. То есть работа с языковыми моделями, подобными ChatGPT, требует более осознанного отношения человека к себе и своим особенностям.

Очевидно, что эта технология выступает в качестве социального актора, а в теории коммуникации происходит интересный сдвиг — технология оказывается не посредником, медиумом или каналом коммуникации, а участником создания социальной реальности. ИИ выступает в роли значимого другого в коммуникативном взаимодействии с человеком.

Меняет ли в таком случае ChatGPT наши представления о том, что такое знание и как люди учатся? Так, мышление и речь у Л. Выготского взаимообусловлены, что, в свою очередь, неразрывно связано с социальным взаимодействием. Как мы можем интерпретировать это с учетом коммуникации с ИИ? Уже сейчас в обучении иностранным языкам ChatGPT способен выстраивать задания, исходя из возможностей обучаемого, а значит, он способен работать в зоне ближайшего развития человека.

ChatGPT поставил непростые вопросы относительно фундаментальных свойств человека и запустил трансформацию дискуссионного поля в коммуникативной теории. При этом оказывается, что главный вопрос при обсуждении искусственного интеллекта — по-прежнему о человеке.

 


[1] Ивахненко Е. Н., Никольский В. С. ChatGPT в высшем образовании и науке: угроза или ценный ресурс? // Высшее образование в России. 2023. Т. 32. № 4. С. 9–22. https://www. doi. org/10.31992/0869-3617-2023-32-4-9-22.

[2] Editorial. (2023). The AI Writing on the Wall. Nature Machine Intelligence. Vol. 5. No. 1. https://www. doi. org/10.1038/s42256-023-00613-9.

[3] Кодекс этики в сфере искусственного интеллекта. URL: https://ethics. a-ai. ru/assets/ethics_files/2023/05/12/Кодекс_этики_20_10_1.pdf.

[4] Krügel S., Ostermaier A., Uhl M. (2023) Chatgpt’s Inconsistent Moral Advice Influences Users’ Judgment. Scientific Reports. Vol. 13. Art. 4569. https://doi. org/10.1038/s41598-023-31341-0.

[5] Sison A. J. G., Daza M. T., Gozalo-Brizuela R., Garrido Merchán E. C. (2023) ChatGPT: More Than a «Weapon of Mass Deception» Ethical Challenges and Responses from the Human-Centered Artificial Intelligence (HCAI). Perspective, International Journal of Human-Computer Interaction. https://doi. org/10.1080/10447318.2023.2225931.

[6] Guzman A. L., Lewis S. C. (2020) Artificial Intelligence and Communication: A Human—Machine Communication Research Agenda. New MediaSociety. Vol. 22. No. 1. P. 70–86. https://doi. org/10.1177/1461444819858691.

[7] В социологии этот тезис формулируется и развивается в концепции «искусственной коммуникации», см.: Esposito E. (2017) Artificial Communication? The Production of Contingency by Algorithms. Zeitschrift für Soziologie. Vol. 46. No. 4. P. 249–265. https://doi. org/10.1515/zfsoz-2017-1014. (Прим. ред.)

[8] В социологии данные тенденции осмысляются в концепции «машинного габитуса», см.: Airoldi M. (2022) Machine Habitus. Toward a Sociology of Algorithms. Cambridge: Polity Press. (Прим. ред.)

[9] Krügel S., Ostermaier A., Uhl M. (2023) Chatgpt’s Inconsistent Moral Advice Influences Users’ Judgment. Scientific Reports. Vol. 13. Art. 4569. https://doi. org/10.1038/s41598-023-31341-0.

[10] Sison A. J. G., Daza M. T., Gozalo-Brizuela R., Garrido Merchán E. C. (2023) ChatGPT: More Than a «Weapon of Mass Deception» Ethical Challenges and Responses from the Human-Centered Artificial Intelligence (HCAI). Perspective, International Journal of Human-Computer Interaction. https://doi. org/10.1080/10447318.2023.2225931.

Мы в соцсетях:


Издатель: АО ВЦИОМ

119034, г. Москва,

ул. Пречистенка, д. 38, пом.1

Тел. +7 495 748-08-07

Следите за нашими обновлениями:

ВЦИОМ Вконтакте ВЦИОМ Телеграм ВЦИОМ Дзен

Задать вопрос или оставить комментарий: