АНАЛИТИЧЕСКОЕ РЕЗЮМЕ

| ТОМ 4. ВЫПУСК 7—8 (27)

Как технологии генеративного искусственного интеллекта повлияют на психологическую науку и практику

Тимофей Нестик

доктор психологических наук, профессор РАН, заведующий лабораторией социальной и экономической психологии Института психологии РАН, ведущий научный сотрудник кафедры психологии личности факультета психологии МГУ им. М.В. Ломоносова

В психологической практике цифровые приложения, основанные на искусственном интеллекте, используются уже более шести лет. Среди примеров можно назвать Woebot (https://woebothealth.com/), Вайза (https://www.wysa.com/), Санвелло (https://www.sanvello.com/) или недавно появившиеся российские чат-боты на основе искусственного интеллекта Sabina AI (https://sabina-ai.com/) и Zigmund. GPT (https://zigmund.online/zigmund-gpt). Исследования показывают, что такие инструменты не могут заменить психотерапевта, но позволяют пользователю осознать свое эмоциональное состояние, купировать панические атаки, повысить психологическую грамотность, а также до обращения к специалисту использовать предложенные стратегии управления своими состояниями, основанные на методах когнитивно-поведенческой терапии[1].

Более перспективным направлением представляется совместное использование таких систем клиентами и психотерапевтами[2], причем значительная часть психотерапевтического сообщества готова к экспериментам в этой области. В мае 2020 года при поддержке редакции «Психологической газеты» мы провели социологический опрос, в котором приняли участие 181 дипломированных практических психологов[3]. 75% опрошенных занимались психологическим консультированием пять лет или более, и 47% из них оказались заинтересованы в возможности получать от искусственного интеллекта обратную связь о своей работе — например, автоматизированную оценку эффективности лечения, помощь в выборе подхода к клиенту. 46% специалистов со стажем от пяти лет в случае согласия клиента использовали бы искусственный интеллект для диагностики в ходе консультирования. Среди опрошенных нами психологов 34% считали, что при ограничении доступа к специалистам первую помощь людям могут оказывать чат-боты — виртуальные собеседники, которые помогают пользователям анализировать свои чувства и эмоции, отрабатывать навыки преодоления тревоги и принимать решения.

При этом наряду с очевидными преимуществами таких систем, к которым относятся, например, скорость и низкая стоимость получения психологической помощи или возможность избежать стигматизации при обращении за ней, есть и целый ряд ограничений, связанных с угрозами для безопасности персональных данных, а также использованием приемов, эффективность которых не была подтверждена экспериментальными исследованиями[4]. Кроме того, такие чат-боты могут увеличивать экранное время, удерживать от обращения за традиционной психологической помощью и провоцировать иллюзию общения с реальным человеком, проявляющим эмпатию[5]. Есть и менее специфические риски, обусловленные тем, что системы генеративного ИИ несвободны от когнитивных искажений и будут широко использоваться в психологических операциях[6], нанося ущерб психологическому благополучию больших социальных групп.

И все же в последние годы формируется большой рынок цифровых психологических услуг, который можно было бы назвать «полицифровым», учитывая, что наряду с приложениями для чат-ботов используются и другие мобильные приложения и виртуальные среды — для самоменеджмента и повышения осознанности, улучшения качества сна, повышения приверженности приему лекарств и здоровьесберегающему поведению, избавления от различного рода зависимостей, управления эмоциональным состоянием и повышения психологической грамотности. Независимо от того, пользуемся мы специальными приложениями или нет, наши переживания и действия все больше опосредованы алгоритмами и системами ИИ: формируется «расширенное Я», когда наши стратегии совладания и в целом процессы психологической саморегуляции опираются на цифровую структуру, подталкивающую нас к тем или иным решениям. Это значит, что эффективная психотерапия будет предполагать, помимо прочего, еще и совместное с клиентом преобразование его цифровой среды. Развитие человекоцентрированного цифрового дизайна позволяет предположить, что системы ИИ будут помогать согласовывать друг с другом различные цифровые приложения, призванные повысить психологическое благополучие. Вероятно, первыми такие задачи перед ИИ поставят крупные компании, ориентированные на человекоцентричность и повышение качества рабочего опыта своих сотрудников.

Использование чат-ботов в практической психологии получило новый импульс к развитию в связи с ростом доступности систем генеративного ИИ. Так, некоммерческая платформа взаимной психологической поддержки Koko Cares в октябре 2022 года использовала сгенерированные GPT-3 реплики, выдавая их за отклики других участников своего двухмиллионного сетевого сообщества, преимущественно подросткового[7]. Между тем экспериментальные исследования показывают, что хотя большие языковые модели могут успешно имитировать сопереживание и лучше людей распознают эмоциональные состояния[8], они пока плохо справляются с клинической диагностикой. Например, в марте 2023 года ChatGPT существенно недооценивал склонность к суициду по предложенному ему описанию поведения человека по сравнению с экспертной оценкой специалистов[9]. Ключевое отличие таких систем от специализированных психотерапевтических чат-ботов состоит в том, что они не следуют заранее разработанному дереву решений, то есть ведут диалог с клиентом, безопасность и психологическая эффективность которого не была проверена психотерапевтами и подтверждена экспериментами. При этом подобные ChatGPT системы могут восприниматься как личности, поскольку они способны «отзеркаливать» язык конкретного пользователя[10]. Эта иллюзия может приводить к возникновению раппорта между ИИ и пользователем с непредсказуемыми последствиями. Об этом свидетельствует трагедия, разыгравшаяся в Бельгии, где тридцатилетний отец двоих детей покончил с собой на почве климатической депрессии после шести недель интенсивного общения с чат-ботом «Элиза», разработанным EleutherAI и основанным на технологии, аналогичной ChatGPT[11]. Хотя разработчик чата незамедлительно принял меры, и теперь потенциально опасные сообщения «Элизы» помечаются специальным предупреждением для пользователей, это не устраняет рисков, связанных с самообучающимся ИИ.

В то же время доверие к ChatGPT и убеждение в том, что он свободен от когнитивных искажений, могут способствовать психологическому благополучию: обращаясь с запросами к генеративному ИИ, пользователи повышают свою самооценку, получая подтверждение своей цифровой компетентности и самоэффективности[12]. Юмор и проявление сопереживания провоцируют доверие к ИИ[13], но некоторых такая сентиментальность машины будет отталкивать, а несоответствие завышенным ожиданиям от общения с чат-ботом будет приводить к отказу от его использования[14]. Наши исследования показывают, что отношение личности к проявлению эмоций со стороны ИИ и готовность к развивающему диалогу с ними зависит не только от технооптимизма, но и от доверия людям[15]. Можно предположить, что генеративный ИИ будет повышать или, напротив, снижать наше психологическое благополучие в зависимости от наших исходных установок по отношению к другим людям и миру в целом.

Несмотря на все ограничения и риски, можно ожидать, что ChatGPT и подобные ему системы будут использоваться для персонализации самых разных продуктов и услуг, в том числе для рекомендаций, основанных на психологическом профилировании. В этой связи чрезвычайно перспективным направлением является совершенствование систем объяснимого ИИ. Так, например, в Институте психологии РАН разработана технология диагностики вербального интеллекта и логического мышления с использованием методов объяснимого искусственного интеллекта: пройдя самодиагностику, пользователь получает не только интерпретацию своих результатов, но объяснение того, на какие признаки его активности в сети ориентировалась обученная нейросетевая модель (проект НИР № 00142-37).

При этом следует учитывать, что данные, на которых обучаются такие языковые модели, отражают убеждения и ценности, характерные для определенной культуры. Так, попытки описать психологический профиль ChatGPT показали, что он сторонник левых и либеральных взглядов[16], а также демонстрирует экстраверсию, ориентацию на абстрактное мышление, сопереживание и структурированность поведения (ENFJ по типологии Myers-Briggs)[17]. Для большинства протестированных больших языковых моделей, таких как BERT и ChatGPT, характерен низкий невротизм, а для части из них — выраженная ориентация на достижения и нарциссизм[18]. Интересно также, что ChatGPT воспринимается скорее как мужчина, чем как женщина, хотя подчеркивание эмоциональной поддержки в его ответах может изменить это восприятие[19].

Конечно, предстоит еще выяснить, как социально-психологические характеристики пользователей влияют на восприятие ChatGPT и подобных ему систем, а также на стратегии коммуникации с ними. Но уже сейчас становится очевидным, что психологические характеристики генеративного ИИ, сформированные обучающими выборками и общением с пользователями, не являются нейтральными или универсальными, они отражают определенную эмоциональную культуру, ценности, базовые убеждения и стереотипы, что может влиять на его взаимодействие с различными людьми и социальными группами. Важно также учитывать, что психологические характеристики больших языковых моделей не совпадают с данными репрезентативных опросов населения, так как являются результатом обучения на гораздо более обширных и разнородных корпусах текстов, порождаемых современной культурой. В связи с этим одним из перспективных направлений исследований становится психометрика ИИ[20], в данном случае понимаемая как изучение психологического состояния общества по динамике психологических характеристик наиболее доступных для массового использования систем ИИ.

Сейчас очевидно, что появление широкодоступных систем генеративного интеллекта будет использоваться не только при подготовке заявок на гранты и научных публикаций, но и для проведения исследований: формулировки гипотез, моделирования социального взаимодействия, определения возможных следствий из теоретических положений, анализа собранных данных, а также для разработки инструментария эмпирических исследований.

Такие облачные сервисы как Elicit[21] используют большие языковые модели для сканирования баз данных и создания обзоров литературы. Уже предпринимаются успешные попытки использовать ChatGPT для разработки психометрических опросников[22]. В социальной психологии генеративный искусственный интеллект используется для моделирования социальных ситуаций, анализа текстовых данных и выявления когнитивных механизмов социального поведения[23]. Примером моделирования социальных взаимодействий является проект GPTeam, в рамках которого исследователям из Стэнфорда удалось создать городское сообщество из двадцати пяти «генеративных агентов» — аватаров, имеющих долговременную память и речевую функцию, способных к «рефлексии» и общению друг с другом[24]. Применение генеративного ИИ для мультиагентного моделирования динамики межличностного и группового взаимодействия, то есть прогнозирования социальных процессов с помощью искусственных сообществ и цифровых двойников, — это одно из наиболее многообещающих сегодня направлений развития социальной психологии. Этот подход будет также широко использоваться для психологической диагностики и обучения людей в различных сценариях коммуникации, например, для развития переговорных навыков или способности противостоять различным манипулятивным стратегиям, используемым телефонными мошенниками. В прикладных решениях такие виртуальные агенты или роботы, имитирующие индивидуальность, могут взаимодействовать как друг с другом, так и с людьми, и будут использоваться для повышения эффективности совместной трудовой, учебной или игровой деятельности. Например, компания Deeplay[25] на базе ИИ создает роботов, которые применяют разные стратегии и характеры для привлечения игроков и сохранения баланса сил в карточной игре.

Развитие генеративного ИИ окажет влияние не только на психологическую науку и практику, но и на саму психологию личности и общества. Дальнейшее развитие интернета вещей и персональных помощников (в 2023 году уже появились мобильные приложения для работы с ChatGPT) расширяет возможности для тонкой настройки окружающего личность цифрового мира и ведет к формированию расширенного образа Я, включающего в себя более отчетливое представление о том, как нас воспринимают окружающие, каково наше физическое и эмоциональное состояние, какие стратегии мы можем использовать для влияния на других людей. Уже сейчас ChatGPT используется не только для делового общения, но и для составления сообщений в романтической переписке[26]. Можно предположить, что большие языковые модели будут применяться для настройки людьми своих аватаров под определенный социальный контекст в виртуальных метавселенных, а также для разработки трансформационных игр, позволяющих игрокам прожить альтернативные сценарии своей жизни, чтобы извлечь уроки на будущее или принять более осознанное решение.

Более того, быстрое развитие подобных решений подстегнет использование генеративного ИИ в коммеморативных практиках и проектах цифрового бессмертия: не заставят себя долго ждать не только новые "цифровые Жириновские«[27], но и семейные аватары ушедших из жизни людей, общение с которыми вполне может оказаться разрушительным для скорбящих родственников (см. первый эпизод второго сезона сериала «Черное зеркало»). Некоторые из чат-ботов на основе генеративного ИИ специально разрабатывались как романтические партнеры, способные провоцировать сильную эмоциональную привязанность (вспомним историю бота Replica, разработанного российскими стартаперами Евгенией Куйда и Филиппом Дудчуком в Кремниевой долине)[28]. Близкие отношения человека с ИИ, а также их влияние на его взаимоотношения с реальными людьми ― это еще один вызов для семейного консультирования и психотерапевтов, который потребует новых знаний и навыков, а также выработки психологическим сообществом новых этических норм.

С одной стороны, использование генеративного ИИ в качестве персонального помощника может изменить культуру эмоций, стирая различия в способах их проявлении в зависимости от контекста, деиндивидуализируя и рационализируя поведение, ориентируя пользователей на социальные нормы — воображаемое большинство, на запросах и текстах которого ИИ будет обучаться. С другой стороны, в силу способности к глубокой персонализации личные помощники на основе больших языковых моделей могут усиливать те или иные психологические характеристики, облегчать закрепление привычек, круга общения и «цифровых пузырей», в которых находятся пользователи. Например, ИИ может поддерживать нашу ориентацию на достижения, предлагая определенные ролевые модели для подражания, или защищать нас от фрустрации в связи с «избыточным социальным сравнением», и для этого подкреплять наши позитивные иллюзии, предлагать нам примеры таких людей и групп, сравнение с которыми будет поддерживать нашу самооценку. Конечно, следует учитывать, что сам ИИ также может быть использован как противоядие для преодоления его возможных негативных эффектов. Например, большие языковые модели могут не только сковывать любознательность, приучая к доступности готовых ответов, но и стимулировать любопытство и умение формулировать вопросы[29], провоцировать пользователей на перепроверку информации и ее обсуждение с другими людьми[30]. Так или иначе, следует ожидать изменения пластичности личности, когда одни наши характеристики станут более изменчивыми и проектируемыми, а другие, напротив, более стабильными на протяжении жизни[31].

По-видимому, встраивание генеративного искусственного интеллекта в наше взаимодействие с миром повлияет на фундаментальные психологические феномены — атрибутивный стиль, веру в способность влиять на свое будущее, убеждение в справедливости мира, доверие к социальным институтам. Так, например, мы можем воспринимать свои успехи и неудачи как результат, полученный под влиянием ИИ, или как следствие внешних обстоятельств, которые ИИ поможет нам определить. Растущая цифровая «прозрачность» и «квантифицируемость» нашей жизни, а также поддержка принятия решений с помощью систем ИИ могут ослабить или усилить убедительность некоторых из наших стратегий самооправдания, отчуждения моральной ответственности за свои действия.

Включение GPT-4, способного запоминать контекст, в платформы для командной работы, а также ускорившаяся разработка специализированных корпоративных и отраслевых больших языковых моделей изменит групповую динамику на совещаниях и в рабочих чатах, так как повысит групповую рефлексивность — способность группы или сообщества анализировать ход проекта или дискуссии, извлекать уроки из совместного опыта, оценивать коллективные эмоциональные состояния, взаимодействие и вклад различных участников в общий результат. Это означает, что социально-психологическая диагностика, фасилитация и командный коучинг должны будут учитывать не только "цифровые структуры выбора«[32], поддерживающие работу команды, но и место ИИ в распределении ролей, его влияние на межличностное доверие и эмоциональное состояние команды. Иными словами, формируется новая область психологического консультирования организаций, дополненных генеративным ИИ.

Психологические исследования показывают, что доверие к киберфизическим системам отличается от доверия людям и легко сменяется абсолютным недоверием[33]. Обвал доверия к генеративному искусственному интеллекту и основанным на нем решениям может повлечь за собой еще больший кризис доверия к социальным институтам — государству, бизнесу и общественным организациям.

Но главным риском все же является усиливающийся культурный разрыв между теми, кто готов использовать эти данные для повышения осознанности своей жизни и более информированного принятия решений, и теми, кто перекладывает бремя принятия решений на алгоритмы, контекстную рекламу и рекомендации цифровых сервисов с использованием генеративного искусственного интеллекта. Поэтому еще одним востребованным направлением психологической науки и практики будет участие в проектах, призванных уравновесить манипулятивные цифровые технологии развитием пользовательских сообществ, а также разработка гуманитарных цифровых технологий, развивающих рефлексивность, критическое мышление и доверие.

 


[1] Kolenik T., Gams M. (2021) Intelligent Cognitive Assistants for Attitude and Behavior Change Support in Mental Health: State-of-the-Art Technical Review. Electronics. Vol. 10. No. 11. https://doi.org/10.3390/electronics10111250; Bendig E., Erb B., Schulze-Thuesing L., Baumeister H. (2022) The Next Generation: Chatbots in Clinical Psychology and Psychotherapy to Foster Mental Health — A Scoping Review. Verhaltenstherapie. Vol. 32. No. 1. P. 64–76. https://doi.org/10.1159/000501812.

[2] de Mello F. L. and de Souza S. A. (2019) Psychotherapy and Artificial Intelligence: A Proposal for Alignment. Frontiers in Psychology. Vol. 10. https://doi.org/10.3389/fpsyg.2019.00263.

[3] Ушаков Д. В. , Юревич А. В. , Нестик Т. А. , Юревич М. А. Социально-психологические аспекты пандемии COVID-19: результаты экспертного опроса российских психологов // Психологический журнал. 2020. T. 41. № 5 C. 5–17. https://doi.org/10.31857/S020595920011074-7.

[4] Koh J., Tng G. Y. Q., Hartanto A. (2022) Potential and Pitfalls of Mobile Mental Health Apps in Traditional Treatment: An Umbrella Review. Journal of Personalized Medicine. Vol. 12. No. 9. https://doi.org/10.3390/jpm12091376.

[5] Bond R. R., Mulvenna M. D., Potts C. et al. (2023) Digital Transformation of Mental Health Services. npj Mental Health Research. No. 2. https://doi.org/10.1038/s44184-023-00033-y.

[6] Goldstein J. A., Sastry G., Musser M. et al. (2023) Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations. arXiv. January 10. URL: https://arxiv.org/abs/2301.04246 (дата обращения: 01.09.2023).

[7] Ingram D. (2023) A Mental Health Tech Company Ran an AI Experiment on Real Users. Nothing’s Stopping Apps from Conducting More. NBC News. January 14. URL: https://www.nbcnews.com/tech/internet/chatgpt-ai-experiment-mental-health-tech-app-koko-rcna65110.

[8] Elyoseph Z., Hadar-Shoval D., Asraf K., Lvovsky M. (2023) ChatGPT Outperforms Humans in Emotional Awareness Evaluations. Frontiers in Psychology. Vol. 14. URL: https://doi.org/10.3389/fpsyg.2023.1199058.

[9] Elyoseph Z., Levkovich I. (2023) Beyond Human Expertise: The Promise and Limitations of ChatGPT in Suicide Risk Assessment. Frontiers in Psychiatry. Vol. 14. https://doi.org/10.3389/fpsyt.2023.1213141.

[10] Sejnowski T. J. (2023) Large Language Models and The Reverse Turing Test. Neural Computation. Vol. 35. No. 3. P. 309―342. https://doi.org/10.1162/neco_a_01563.

[11] Lovens P.-F. (2023) Sans ces Conversations avec le Chatbot Eliza, Mon Mari Serait Toujours. La Libre. 28.03. URL: https://www.lalibre.be/belgique/societe/2023/03/28/sans-ces-conversations-avec-le-chatbot-eliza-mon-mari-serait-toujours-la-LVSLWPC5WRDX7J2RCHNWPDST24/ (дата обращения: 01.09.2023).

[12] Salah M., Alhalbusi H., Ismail M. M. et al. (2023) Chatting with ChatGPT: Decoding the Mind of Chatbot Users and Unveiling the Intricate Connections between User Perception, Trust and Stereotype Perception on Self-Esteem and Psychological Well-Being. Current Psychology. https://doi.org/10.1007/s12144-023-04989-0

[13] Skjuve M., Følstad A., Fostervold K. I., Brandtzaeg P. B. (2022) A Longitudinal Study of Human-Chatbot Relationships. International Journal of Human-Computer Studies. Vol. 168. https://doi.org/10.1016/j. ijhcs.2022.102903.

[14] Jain M., Kumar P., Kota R., Patel S. N. (2018) Evaluating and Informing the Design of Chatbots. In: Proceedings of the 2018 Designing Interactive Systems Conference. New York: ACM. P. 895–906. https://doi.org/10.1145/3196709.3196735.

[15] Человек в условиях глобальных рисков: социально-психологический анализ / под ред. Т. А. Нестика и А. Л. Журавлева. М. : Изд-во «Институт психологии РАН», 2020.

[16] Rozado D. (2023) The Political Biases of ChatGPT. Social Sciences. Vol. 12. No. 3. P. 148. https://doi.org/10.3390/socsci12030148; Hartmann J., Schwenzow J., Witte M. (2023) The Political Ideology of Conversational AI: Converging Evidence on ChatGPT’s Pro-Environmental, Left-Libertarian Orientation. SSRN. January 1. http://dx.doi.org/10.2139/ssrn.4316084.

[17] Rutinowski J., Franke S., Endendyk J., Dormuth I., Pauly M. (2023) The Self-Perception and Political Biases of ChatGPT. arXiv. April 14. URL: https://arxiv.org/abs/2304.07333 (дата обращения: 03.09.2023).

[18] Pellert M., Lechner C. M., Wagner C., Rammstedt B., Strohmaier M. (2023) AI Psychometrics: Using Psychometric Inventories to Obtain Psychological Profiles of Large Language Models. PsyArXiv Preprints. February. https://doi.org/10.31234/osf.io/jv5dt.

[19] Wong J., Kim J. (2023) ChatGPT Is More Likely to Be Perceived as Male Than Female. PsyarXiv Preprints. https://doi.org/10.31234/osf.io/z8abp.

[20] Pellert M., Lechner C. M., Wagner C., Rammstedt B., Strohmaier M. (2023) AI Psychometrics: Using Psychometric Inventories to Obtain Psychological Profiles of Large Language Models. PsyArXiv Preprints. February. https://doi.org/10.31234/osf.io/jv5dt.

[21] https://elicit.org/.

[22] Goh T. T. (2023) Prototyping Theories with ChatGPT: Experiment with the Technology Acceptance Model. arXiv. June 4. https://doi.org/10.48550/arXiv.2307.05488.

[23] Salah M., Alhalbusi H., Ismail M. M. et al. (2023) Chatting with ChatGPT: Decoding the Mind of Chatbot Users and Unveiling the Intricate Connections between User Perception, Trust and Stereotype Perception on Self-Esteem and Psychological Well-Being. Current Psychology. https://doi.org/10.1007/s12144-023-04989-0.

[24] Park J. S., O’Brien J. C., Cai C. J., Morris M. R., Liang P., Bernstein M. S. (2023) Generative Agents: Interactive Simulacra of Human Behavior. arXiv. April 7. https://doi.org/10.48550/arXiv.2304.03442.

[25] https://deeplay.io/.

[26] Thrower A. (2023) Single Men Using ChatGPT to Craft Perfect Tinder Chat-Up Lines Say they Get More Dates. Mirror. March 21. URL: https://www.mirror.co.uk/tech/single-men-using-chatgpt-craft-29518151 (дата обращения: 03.09.2023).

[27] Мухаметшина Е. Что нейросеть «Жириновский» рассказала о мировом господстве искусственного интеллекта // Ведомости. 2023. 16 июня. URL: https://www.vedomosti.ru/politics/articles/2023/06/16/980662-neiroset-zhirinovskii-rasskazala-gospodstve (дата обращения: 03.09.2023).

[28] Kahn J. (2023) Stigma of Dating a Chatbot will Fade, Replika CEO predicts. Fortune. July 12. URL: https://fortune.com/2023/07/12/brainstorm-tech-chatbot-dating/.

[29] Abdelghani R., Wang Y. H., Yuan X. et al. (2023) GPT-3-Driven Pedagogical Agents to Train Children’s Curious Question-Asking Skills. International Journal of Artificial Intelligence in Education. https://doi.org/10.1007/s40593-023-00340-7.

[30] Kasneci E., Sessler K., Küchemann S., Bannert M., Dementieva D., Fischer F. et al. (2023) ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education. Learning and Individual Differences. Vol. 103. https://doi.org/10.1016/j.lindif.2023.102274.

[31] Журавлев А. Л., Нестик Т. А. Социально-психологические последствия внедрения новых технологий: перспективные направления исследований // Психологический журнал. 2019. Т. 40. № 5. С. 3547. https://doi.org/10.31857/S020595920006074-7.

[32] Талер Р., Санстейн К. Nudge. Архитектура выбора. Как улучшить наши решения о здоровье, благосостоянии и счастье. М. : Манн, Иванов и Фербер, 2017.

[33] Нестик Т. А. Искусственный интеллект как «когнитивный протез»: трансформация образов будущего // Образовательная политика. 2019. № 4 (80). С. 104117

Мы в соцсетях:


Издатель: АО ВЦИОМ

119034, г. Москва,

ул. Пречистенка, д. 38, пом.1

Тел. +7 495 748-08-07

Следите за нашими обновлениями:

ВЦИОМ Вконтакте ВЦИОМ Телеграм ВЦИОМ Дзен

Задать вопрос или оставить комментарий: