ВСТУПИТЕЛЬНОЕ СЛОВО ПРИГЛАШЕННЫХ РЕДАКТОРОВ
| ТОМ 4. ВЫПУСК 5—6 (26)
ChatGPT в действии и взаимодействии с людьми: что день грядущий нам готовит, или Почему самые знаменитые компьютерщики просят полугодовую паузу в деле производства и совершенствования инструментов ИИ?
Андрей Резаев
доктор философских наук, профессор, руководитель Международной исследовательской лаборатории ТАНДЕМ, СПбГУ
Наталья Трегубова
кандидат социологических наук, доцент кафедры сравнительной социологии, СПбГУ
В ноябре 2022 года ChatGPT ворвался в общественное сознание, захватив внимание людей быстрее, чем любое технологическое новшество или инженерное решение в XXI веке. Уже к февралю 2023 года к этому инструменту искусственного интеллекта (ИИ) подключились более 100 млн человек[1]. Зачем? Очевидно — чтобы понять, что он может делать и чем он может помочь.
Однако логика развития и использования данного инструмента кардинально меняет круг проблем, с которыми сталкиваются и производители, и потребители продуктов ИИ, а также социальные аналитики. Принципиальным становится вопрос, что ИИ должен делать. И даже еще более важные вопросы: кто будет решать, что до́лжно, а что можно делать инструментам ИИ? В какие сферы общественной жизни мы можем допускать ИИ, а в каких он потенциально будет создавать непредвиденные социальные проблемы и риски? Каким образом инструменты ИИ повлияют на способы получения информации людьми, их коммуникацию и общение, взаимодействие между гражданским обществом, бизнесом и властью, на развитие системы образования, рынки труда?
Здесь следует сделать три замечания.
Первое. Когда к нам обратились с предложением подготовить выпуск СоциоДиггера, одна из авторов ответила: «А почему бы и нет?», другой сразу же сформулировал пять пунктов «почему да», рациональную сущность которых можно свести к восклицанию: «Это же действительно чрезвычайно важно сегодня!»[2].
Второе. Со времени, когда мы подготовили выпуск СоциоДиггера о цифровой трансформации и развитии искусственного интеллекта, прошло чуть больше двух лет[3]. Изменился не только СоциоДиггер (мы полагаем, в лучшую сторону, — он стал новой интересной площадкой, где встречаются обществоведы), изменилась и повестка дня для социальных ученых, интересующихся проблематикой цифровой трансформации общества и искусственного интеллекта.
Искусственные нейросети (далее — нейросети) давно не новость, и авторы настоящего введения в 2020 году отмечали необходимость обратить внимание на развитие самообучающихся нейросетей. Но! Появление в ноябре 2022 года языковой модели ChatGPT, а 14 марта 2023 г. — новой версии GPT-4, вместе с обновлениями других продуктов ИИ (таких как Midjourney[4]) заставили многих «компьютерных гениев» сегодняшнего дня подписать и опубликовать 22 марта 2023 года письмо с «требованием» остановиться, сделать обязательную для всех разработчиков обучающихся инструментов искусственного интеллекта паузу[5]. Это, на наш взгляд, беспрецедентное письмо от тех, кто всегда был принципиально против каких-либо запретов на разработку ИИ. Второй, не менее беспрецедентный шаг был сделан в совместной публикации ведущих научных коллективов «Оценка моделей на экстремальные риски» 24 мая 2023 года, в которой предлагаются уже конкретные методики выявления у языковых моделей сильных навыков манипулирования, обмана, киберпреступлений и других опасных способностей[6].
Как нам кажется, СоциоДиггер не может и не должен проходить мимо таких событий в области развития науки, техники и общества.
Третье замечание, самое главное: если обществоведы стали понимать и в той или иной степени участвовать во взаимодействии с другими учеными, занимающимися проблематикой ИИ, то люди, принимающие решения, не то что запаздывают, но остаются теоретически и методологически в XX веке.
Отсюда, соглашаясь работать над данным выпуском СоциоДиггера в 2023 году, мы льстили себе надеждой (и продолжаем это делать), что сможем найти аргументы для тех, кто «принимает решения» и в государственных учреждениях, и в бизнесе, и в международных организациях.
Мы начали готовить свою вступительную статью 16 мая 2023 года. Именно в этот день Сэм Альтман, основатель и директор компании-производителя ChatGPT, выступил на слушаниях в сенате США о проблемах и перспективах развития своего «детища».
Во-первых, Сэм Альтман вместе с исполнительным директором IBM Кристиной Монтгомери отверг идею временного (полугодового) моратория на разработку ИИ, которую предложили Илон Маск, Стив Возняк, Иешуа Бенжио, и еще более трех десятков тысяч известных представителей компьютерных наук и инженеров, занимающихся ИИ, бизнесменов и предпринимателей, подписавших письмо о «паузе».
Во-вторых, вместо «паузы» Сэм Альтман предложил свою программу, состоящую из трех пунктов:
- Сформировать новое государственное агентство, которому будет поручено лицензирование крупных моделей (“large models”) ИИ. Данное агентство должно обладать полномочиями отзывать лицензию на производство инструментов ИИ для компаний, чьи модели не соответствуют государственным стандартам.
- Создать набор стандартов безопасности для моделей ИИ, включая оценку их опасных возможностей. Инструменты ИИ (языковые модели) должны будут пройти определенные тесты на безопасность, например, могут ли они “self-replicate” and “exfiltrate into the wild” («самовоспроизводиться» и «выйти в открытый мир / дикую природу»), то есть стать мошенниками и начать действовать самостоятельно.
- Требовать проведения независимыми экспертами аудита эффективности моделей по различным показателям.
Предложения С. Альтмана нам представляются разумными и пока еще не запоздалыми, а своевременными[7]. Более того, главный вывод, который следует из материалов авторов, комментаторов, экспертов данного выпуска, очень простой: запретить нельзя регулировать.
Знаки препинания, как в известной истории с запятой во фразе «казнить нельзя помиловать», читатели могут поставить на основании своих размышлений над материалами выпуска.
А мы — в качестве заключения работы над этим номером СоциоДиггера — подготовили своеобразный Меморандум — обращение к лицам, принимающим решения, и организациям, обладающим ресурсами.
О чем выпуск?
Идея и принципиальные моменты выпуска
Мы отталкиваемся от того, что большинство сегодняшних «технологических гениев» — кроме тех, разумеется, кто работает в OpenAI and Microsoft, — просят о паузе на полгода в развитии ChatGPT.
Они объясняют, зачем и почему нужна пауза: «В последние месяцы лаборатории искусственного интеллекта втянулись в неконтролируемую гонку по разработке и внедрению все более мощных цифровых интеллектуальных платформ (minds), которые никто — даже их создатели — не может понять, предсказать или надежно контролировать». И самое главное: «Системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми»[8].
Здесь, как нам кажется, заключается прямое указание на то, что пауза в разработке и внедрении ИИ нужна не только (и, может быть, не столько) компьютерщикам и инженерам, но и тем, кто занимается обществом и осмыслением того, как технологии влияют на развитие социальных отношений, процессов, институтов и структур.
Пауза нужна не компьютерным специалистам, а социальным ученым. Она нужна тем, кто занимается социальной аналитикой ИИ. Компьютерщики просят паузу потому, что социальные ученые не просто не успевают и отстали от них, но находятся совершенно в другой реальности понимания того, что произойдет с обществом вслед за вхождением (триумфальным?) ИИ в повседневность. А управленцы, в свою очередь, отстают уже от социальных ученых. Для того чтобы разобраться в ситуации, безусловно, надо определиться, а что же, собственно, произошло.
Что мы знаем? Основные факты
ChatGPT — это чат-бот, генеративная языковая модель, инструмент искусственного интеллекта, который был запущен 30 ноября 2022 года небольшой компанией из Сан-Франциско OpenAI. Эта компания также активно внедряет другие генеративные модели — DALL-E, Whisper, Codex[9].
Первоначально сервис был бесплатным для широкой публики, и компания планировала монетизировать его позже. К 4 декабря 2022 года у ChatGPT было более миллиона пользователей, а в январе 2023 года ― уже более 100 млн, что сделало его самым быстрорастущим потребительским приложением в мире.
В январе 2023 года задержка ответа языковой модели на вопрос обычно не превышала пяти секунд.
14 марта вышла новая версия модели GPT-4 — уже не экспериментальная модель, а товар, ориентированный на продажу и получение прибыли.
Что же произошло с появлением ChatGPT? Это революция?
Первое и главное — наработки в области самообучающихся нейросетей и других инструментов искусственного интеллекта благодаря OpenAI стали доступны широким массам, активно и широко вошли в повседневность. Революция в ИИ — это не взятие конкретных зданий, в которых что-то расположено (телефон, телеграф, почта) — это коренное преобразование возможностей умственного труда человека на основе цифровой трансформации получения данных и мегавозможностей их складирования и хранения. Революция идет давно. В принципе, искусственный интеллект в той или иной степени вошел в повседневность вместе с поисковиками Google и Yandex, рекомендательными системами, «умными» камерами, кредитным скорингом и многими другими сервисами, делающими повседневную жизнь миллионов людей удобнее.
Второе — в той или иной степени появление таких продуктов, как ChatGPT, ожидали практически все разработчики — инженеры, технологи, компьютерщики, занимающиеся проблематикой ИИ. Но суть дела в том, что нейросети, подобные ChatGPT, c таким потенциалом возможностей появились чрезвычайно быстро. То, чего ожидали лет через пять-семь, стало доступно «вчера», то есть в 2022 году[10].
Третье — модель показала, что попытки разработать инструменты ИИ на основе обучающихся нейросетей, которые могли бы агрегировать данные, систематизировать их, непротиворечиво изложить, основываясь на понятной стилистике, оказались успешными и продуктивными. Другими словами, модель демонстрирует то, что должен делать, скажем, ученик (школьник или студент) после занятий с инструктором и тренером: собрать доступную информацию, проанализировать (разложить на части), логично изложить в том или ином формате. ChatGPT попадает в логику развития сфер труда, основывающегося на формальных языковых текстах.
Четвертое — модель делает очевидным то, что уже предполагалось вместе с появлением таких инструментов ИИ, как Siri: время, когда надо активно и долго учиться, чтобы стать «специалистом» в одной какой-то очень «узкой» области, прошло. Особенно это касается «узких» специальностей в области социально-гуманитарного знания. Алгоритм уже сейчас спокойно покажет результаты лучше, чем подготавливаемый пять лет специалист в области бухгалтерского учета.
Пятое — мало сомнений в том, что в самом ближайшем будущем подавляющее большинство контента в социальных медиа будет генерироваться с помощью таких моделей, как ChatGPT-4, и других инструментов ИИ. То есть участники социальных медиа будут потреблять продукт, произведенный ИИ.
Проблемы ChatGPT
Основная проблема ChatGPT заключается в том, что эта нейросеть «выдумывает действительность, создает то, чего нет на основе того, что есть» («галлюцинирует»). Хотя компания OpenAI пропагандирует свою нейросеть как нечто, полностью опирающееся на данные, которые есть в интернете (точнее, появились в интернете до 2021 года), но «обучение» нейросети прошло таким образом, что она «сочиняет», «выдумывает» реальность, при этом очень аккуратно и с малыми ошибками использует правильную речевую стилистику. Модель пишет банальные тексты, но в логике «середняков» той или иной профессии, имеющей отношение к текстам. Принципиально важно, что этот чат-бот не может отличить правду от вымысла[11].
Модель генерирует тексты на основе вопросов и уточняющих подсказок (‘prompts’). Чем точнее и яснее вопрос — тем эффективнее будет сгенерирован текст. Отсюда вывод, что учить в университетах следует тому, как задавать вопросы подобным языковым моделям. ChatGPT действительно генерирует на основе той информации, которая есть в интернете, и старается выдать текст, который по качеству соответствовал бы уровню задаваемого вопроса. Сейчас для поиска информации в интернете необходимо владеть несложным навыком формулирования коротких запросов и тратить довольно много времени, чтобы собрать релевантный ответ из разрозненной поисковой выдачи. В самом ближайшем будущем стратегия поиска изменится: мы будем формулировать более длинные запросы, уточняя наши поисковые потребности на естественном языке, а в ответ получать готовый связный текст о том, что мы хотели узнать.
Здесь мы подходим к вопросу, на каких данных обучаются модели ИИ. Проблема в том, что участники (разработчики и производители) в рамках данной социальной системы будут скрывать информацию, ссылаясь на конкуренцию и вопросы безопасности. Строго говоря, достоверные данные от производителей вряд ли можно получить в принципе. Что-то просачивается в прессу, однако она тоже — не надо забывать — ориентирована на получение прибыли от продажи своих тиражей.
Газета „The Washington Post“ проанализировала популярный набор данных, используемый в наиболее продвинутых моделях ИИ, разработанных Google и Facebook*[12]. Он содержал 15 млн веб-сайтов, извлеченных из интернета, более 200 млн экземпляров с символом авторского права, пиратские веб-сайты электронных книг, сайты сторонников превосходства белой расы и государственные базы данных регистрации избирателей (данные избирателей общедоступны, но модель может использовать эту информацию способами, которые компании не предусмотрели).
Пока разработчики, да и исследователи, не хотят серьезно и внимательно изучать данные, используемые для «обучения» моделей. Причина такого отношения понятна — попытка избежать потенциальных проблем ответственности в отношении авторских прав, информации, позволяющей установить личность, или других ситуаций, нарушающих какие-либо права, в материалах, взятых из интернета.
Нам представляется, что требования к «прозрачности» наборов данных могут стать первым шагом к обеспечению подотчетности и надзора в области ИИ.
Отношение к ИИ: как решить «проблему страха»?
С одной стороны, ИИ способен решить многие проблемы: его можно использовать для разработки альтернативных источников энергии, повышения урожайности в сельском хозяйстве, создания новых сфер труда и рабочих мест. ИИ также можно применять для улучшения здравоохранения, предоставления персонализированного образования, то есть для того, чтобы сделать жизнь людей более удобной.
С другой стороны, есть несколько причин, позволяющих людям считать, что необходимо прекратить разработку ИИ. Одна из них заключается в том, что ИИ может стать настолько «умным», что превзойдет человеческий интеллект и станет угрозой самому существованию человечества. Это известно как сценарий «взрыва интеллекта», или «сверхразума». Нет никаких эмпирических подтверждений, что это произойдет, но к данной возможности следует отнестись серьезно.
Еще одна причина прекратить разработку ИИ заключается в том, что его могут использовать в злонамеренных целях, таких как создание автономного оружия или дискриминация определенных групп людей. Уже сейчас инструменты ИИ можно использовать (и активно используют) для распространения дезинформации и пропаганды всего что угодно. Если ИИ попадет «не в те руки», он может нанести большой вред.
Есть три задачи, которые необходимо решить, если мы хотим покончить со страхами в отношении ИИ.
Во-первых, нужны кардинальные изменения в общественном мнении, начиная с использования потенциала названий и наименований. Названия должны быть интуитивно понятны всем людям, а не только тем, кто имеет отношение к инженерному знанию и компьютерным технологиям.
Во-вторых, нам необходимо мобилизовать существующие институциональные ресурсы (законы о конфиденциальности, антимонопольные законы) и определить новые законы, правила, регулирующие институты, которые касаются механизмов и императивов существования и внедрения инструментов ИИ в повседневную жизнь.
В-третьих, развитие инструментов ИИ происходит в системе капиталистических отношений. Вариант капитализма, который Шошана Зубофф называет надзорным капитализмом, становится более ощутимым и «перспективным» с развитием ChatGPT. Возвращение к первоначальному варианту, который обещала обществу цифровая трансформация, создание цифровой эпохи расширения прав и возможностей человека и демократизации знаний все еще возможно, но очень и очень затруднено и обусловлено различными социально-экономическими и политическими «случайностями»[13].
В чем сходятся социальные аналитики?
Инновации в XIX—XX веках влияли почти на все сферы жизни: жилье, электричество, транспорт, коммуникацию с другими людьми (телеграф, телефон). С конца XX века и в XXI веке инновации экспоненциально затрагивают сферу коммуникации, очень узкий участок жизни людей.
Сегодня экономический рост базируется прежде всего на том, что по-английски называется Data. Причем экономический рост вовсе не всегда тождественен общественному благу. То, что касается увеличения «данных», слишком часто упирается в проблемы. Уже ни для кого не секрет, что коммуникационные платформы, на которые люди возлагали надежды по обеспечению большей вовлеченности в социальную жизнь, «бо́льшую социальность» (даже термин был придуман — «социальные медиа»), работают в противоположном направлении и приводят к эффектам «информационных пузырей», поляризации общественного мнения, фрагментации и атомизации общества, массовым проявлениям асоциальности в поведении, особенно у молодежи. Возникают проблемы digital addiction, digital divide, проблема надзорного капитализма.
В индустриальную эпоху изменения касались улучшения (изменения) для человека условий физического труда. Технологии XXI века изменяют условия умственного труда. Можно сказать, что технологии XX века механизировали и автоматизировали человеческий труд. Технологии ИИ оцифровывают и компьютеризируют сферу труда, а значит, его можно «программировать» и «модернизировать» (up-grade).
Вот для чего нужна пауза: понять, что от взаимосвязи «человек — машина» мы пришли к взаимозависимости «человек — алгоритм». Алгоритмы начинают влиять на наши предпочтения, мнения и убеждения, формировать культуру, систему ценностей и картину мира. Если алгоритмы контролируют нашу жизнь, то люди становятся в своих поступках похожими на машины, а машины, наоборот, — более человекоподобными. Но человек, по сути, совсем другое нечто или некто. Быть более человечным означает быть менее машиноподобным.
В чем социальные аналитики расходятся?
Прежде всего, в понимании того, что такое ИИ. Большинство публикаций обществоведов явно ориентированы и принимают различные трактовки ИИ, предложенные компьютерщиками и инженерами. В основном различают и обсуждают возможности слабого, или функционального (weak AI), и сильного, или общего (strong AI), ИИ. Для социальной аналитики суть дела, как нам представляется, в том, что результатом «работы» ИИ является появление новой реальности — «искусственной социальности»[14].
Что нам надо сделать в ближайшей перспективе?
- Определить теоретико-методологические и концептуальные основания исследования взаимозависимости «человек — алгоритм».
- Обосновать параметры измерений этих взаимосвязей.
- Дать характеристику возможностей ИИ для развития общества и определить угрозы для его существования и, соответственно, выработать меры для поддержания первых и устранения вторых.
- Приступить к разработке регламентов и законов внедрения ИИ в повседневную жизнь.
- Формировать в обществе правильное отношение к новым массовым технологиям (ведение разъяснительной работы, разработка техник безопасности с демонстрационными примерами, популяризация знаний о необоснованном доверии и прочих когнитивных искажениях, вызываемых интеллектуальными агентами).
- Проанализировать и аргументированно обосновать запретные зоны для внедрения ИИ в социальную и личную жизнь человека (табу-зоны).
- Определить основания для подготовки социальных регуляторов, выделить критерии формирования социального аудита применения ИИ в повседневной жизни. Сюда должны входить и этика, и юриспруденция.
- Понять, что регуляцию ИИ невозможно осуществить вне системы международных отношений, без опоры на различные культурные и религиозные основания.
Пауза, которой не будет
Чем больше люди понимают, как работает ИИ и какие социальные аспекты учитываются / не учитываются при его разработке, тем легче им идти на контакт с ним и другими технологическими новшествами. Понимание и доверие — ключевые характеристики, над которыми должны работать социальные аналитики. Понять: (1) как это работает; (2) как такая работа может облегчить труд и жизнь людей; (3) что может измениться в обществе вместе с активным использованием нейросетей.
По сути, обществоведы должны сделать «рывок» в своих исследованиях взаимодействия и взаимозависимостей «человек — машина», «человек — алгоритм».
Социальные ученые по определению занимаются не проблемами инженерных решений и компьютерных технологий, но обществом. Их цель — анализ взаимоотношений «человек — машина — человек», реальности пребывания человека в искусственной социальности.
Итак, главное рациональное зерно в моратории/паузе в развитии ИИ состоит в том, чтобы социальные ученые могли продвинуться в своих исследованиях. В завершение нашего рассуждения приведем несколько аргументов в поддержку этой идеи.
- Большинство ученых, работающих в области ИИ, имеют фундаментальное знание математики, физики и компьютерных наук, но они просто не могут обладать знаниями в области социальных наук, пониманием развития общественных отношений и процессов. Поэтому такие необходимые составляющие для развития технологий, как этика, социально-культурные последствия взаимодействий ИИ с людьми, практически остаются за скобками либо разрабатываются на самом первоначальном уровне. Социальные ученые должны принимать участие во всех этапах разработки инструментов ИИ.
- Существует опасность потери контроля над ИИ, если социальные аспекты, цивилизационные и идеологические характеристики не будут учитываться при их разработке и внедрении. Если ИИ не будет управляться этическими и социальными принципами, он может стать угрозой для развития общества. Социальная аналитика может и должна внести свой вклад в управление рисками, связанными с ИИ, и защитить общество от возможных негативных последствий.
- Развитие ИИ открывает возможности для новых форм/видов взаимодействия между людьми и интеллектуальными машинами. Однако для эффективного использования ИИ необходимо, чтобы люди могли легко и понятно взаимодействовать с ним. Задача социальных ученых — исследовать, как улучшить взаимодействие между ИИ и людьми, чтобы сделать его более естественным и интуитивным.
- С развитием ИИ возникают новые правовые вопросы, требующие новых трактовок правовой базы. Например, какие права должны иметь роботы и ИИ, кто несет ответственность за повреждение, причиненное ИИ, и т. д.
- Развитие ИИ может привести к новым угрозам для безопасности, таким как хакерские атаки на ИИ или его использование в кибератаках. Социальные ученые могут участвовать в исследовании этих угроз и в разработке мер по обеспечению безопасности.
- Применение алгоритмов ИИ в повседневной жизни может привести к ситуациям, когда они принимают неправильные решения из-за отсутствия понимания контекста или ясности в характеристике социальных норм и ценностей. Социальные ученые должны исследовать, как учитывать контекст и социальные нормы при разработке ИИ.
- Использование ИИ может привести к уменьшению роли человека в некоторых областях, что приведет к проблемам со здоровьем и эмоциональным срывам. Социальные ученые могут исследовать, каким образом следует учитывать человеческий фактор при разработке ИИ, с тем чтобы не принести вред здоровью и обеспечить эмоциональное благополучие людей.
- Нельзя не видеть необходимость учета этических моментов при разработке и применении ИИ. Это такие вопросы, как использование ИИ в медицине или защита конфиденциальности и использование личных (интимных) данных. Социальные ученые могут помочь разработать этические стандарты для использования ИИ, которые будут справедливы и будут учитывать интересы разных групп людей.
- Разработка и применение инструментов ИИ может привести к упущению некоторых культурных и религиозных особенностей, если они не будут учтены изначально. Это еще одно поле деятельности для социальных ученых.
* Деятельность социальной сети запрещена на территории РФ (20.06.2022).
[1] Cм.: ChatGPT Hits 100 Million Users, Google Invests In AI Bot And CatGPT Goes Viral. Forbes. 03.02.2023. URL: https://www.forbes.com/sites/martineparis/2023/02/03/chatgpt-hits-100-million-microsoft-unleashes-ai-bots-and-catgpt-goes-viral/?sh=13b76081564e.
[2] Кстати, вот что ответил(а) языковая модель ChatGPT-3 на вопрос, что означает «а почему бы и нет»: «Фраза может быть интерпретирована как согласие или разрешение на выполнение чего-либо без явного возражения или причинения вреда. Это может означать, что человек не видит явных причин против выполнения действия или не хочет препятствовать выполнению этого действия. Однако также можно использовать эту фразу как выражение небольшой надежды или желания, чтобы что-то произошло, не обязательно выражающее полное одобрение». Второй вариант ответа: «Фразу „а почему бы и нет“ можно интерпретировать как выражение поддержки идее или предложению без явных аргументов за или против. Она может быть использована, чтобы выразить готовность попробовать что-то новое или согласиться на что-то, что может не иметь явных преимуществ или недостатков. Однако это также может указывать на нехватку обоснования и отражать легкомысленный подход к принятию решений».
[3] СоциоДиггер. 2020. Октябрь. Т. 1. В. 3: Цифровизация и искусственный интеллект. URL: https://sociodigger.ru/releases/release/cifrovizacija-i-iskusstvennyi-intellekt.
[4] Это инструмент искусственного интеллекта, созданный и поддерживаемый независимой исследовательской лабораторией Midjourney, Inc. из Сан-Франциско. Midjourney генерирует изображения, картинки и графики на основе описаний на естественном языке, называемых ‘prompts’ («подсказками»), подобно DALL-E.
[5] Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
[6] Model Evaluation for Extreme Risks. URL: https://arxiv.org/abs/2305.15324.
[7] Подчеркнем — мы не против «паузы» на полгода, мы просто понимаем, что такую паузу принципиально невозможно ни организовать, ни проконтролировать.
[8] Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
[9] DALL-E создает изображения на основе текстовых описаний; Whisper — модель распознавания речи, которая может транскрибировать и переводить звук со многих языков, Codex «переводит» текст на естественном языке в программный код.
[10] Примечательно, что языковая модель GPT 3.5, лежащая в основе ChatGPT, появилась в еще марте 2022 года, но предметом широкого обсуждения стал именно появившийся в ноябре чат-бот.
[11] См.: Chomsky N. (2023) The False Promise of ChatGPT. The New York Times. 08.03. URL: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.
[12] Schaul K., Chen S.Y., Tiku N. (2023) Inside the Secret List of Websites That Make AI like ChatGPT Sound Smart. The Washington Post. 19.04. URL: https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/?itid=lk_inline_manual_61.
[13] Обсуждаются, скорее, иные решения — прежде всего универсальный базовый доход (universal basic income). Так, директор OpenAI Сэм Альтман отчисляет очень большие суммы на исследования по организации жизни на основе универсального базового дохода.
[14] Искусственная социальность предполагает, что технологии ИИ становятся активными посредниками и участниками социальных взаимодействий. См.: Резаев А.В., Трегубова Н.Д. «Искусственный интеллект», «искусственная социальность, «онлайн-культура»: определение понятий // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 6. С. 35—47. https://doi.org/10.14515/monitoring.2019.6.03.
Мы в соцсетях: