РАСШИРЕННЫЙ КОММЕНТАРИЙ
| ТОМ 4. ВЫПУСК 7—8 (27)
Нейросети в 2023 г. ― рождение искусственной личности?
Игорь Ларионов
кандидат философских наук, доцент, заведующий Кафедрой философской антропологии СПбГУ
Может быть, мы будем рассказывать детям, что видели, как в 2023 году появился и стремительно захватил наше бытие настоящий искусственный интеллект.*
Это надежды, ожидания, а для многих ― страхи. Для кого-то это история о том, как искусственный интеллект отнял у человека работу, права на самостоятельные решения, вытеснил его из области креативности... Возможно, так оно и будет. Однако следует разобраться, что для этого понадобится сделать.
К сожалению, в СМИ сейчас появилось много статей, из заголовков и текстов которых может показаться, что искусственный интеллект начал совершать самостоятельные поступки: ошибаться, учиться, угрожать исчезновением профессий и даже виртуально уничтожать оператора-наблюдателя.
Мы предполагаем, что разработчики ИИ специально ориентировались на то, чтобы создать похожие на людей системы, которые бы человек не смог отличить от себе подобного. А о появлении «сильного искусственного интеллекта», «генерализованного (общего) искусственного интеллекта» и уж подавно ― искусственной личности ― говорить рано.
С философской точки зрения следует развести два уровня постановки вопроса и, соответственно, два возможных подхода, которые часто путают, причем, к сожалению, не только журналисты, но и некоторые специалисты в области создания нейросетей, в том числе моделей GPT:
1) Каковы условия, которым должна отвечать машина, чтобы ее можно было считать самостоятельным агентом? Термин «агент», «агентность» (agency) употребляется здесь, чтобы избежать коннотаций со старинным понятием «личность» и связанными с ним категориями свободы и ответственности.
2) Каковы технические требования, которые следует выполнить для целенаправленного создания искусственной личности, искусственного агента?
Многие исследователи искусственного интеллекта ограничиваются первым подходом. То есть, если разработка ИИ успешно участвует в том или ином социальном взаимодействии (например, голосовой помощник для ребенка, робот-ассистент для престарелого человека и т. п.), то ее можно считать полноценным агентом.
Так, в Кембриджском справочнике по искусственному интеллекту утверждается, что, когда ИИ начинает решать задачи, ранее выполнявшиеся людьми, он «наследует» и те социальные требования и права, которые с такими задачами связывались[1].
В 2020 году в высокоцитируемой работе[2] философы Д. Бехдади и К. Мунхе продвигают мысль, что искусственные агенты должны быть включены в социальные практики, участникам которых обычно вменяется моральный статус, и тогда они тоже могут считаться моральными.
Как правило, достаточным условием для «моральности» машин считается автономия, что непосредственно связано с особенностями их функционирования. Например, военный дрон, в автономном режиме совершивший атаку; чат-бот последнего поколения, «без помощи» оператора поддерживающий психотерапевтическую беседу.
Исследователи, обращающиеся ко второму уровню постановки вопроса (чем система ИИ должна БЫТЬ, а не казаться), часто «играют по-крупному» и берут заведомо сложные задачи, среди которых ― моральный выбор.
Моральное решение вообще является сложнейшей темой теории искусственного интеллекта. Ей было посвящено, например, известное исследование 2016 г. «Moral Machine» [3] на базе Массачусетского технологического института (MIT). В нем собиралась и анализировалась информация о том, какие решения склонны принимать люди в трагических дорожных ситуациях. Участники мыслительного эксперимента чаще жертвовали взрослыми (особенно старшим поколением) ради сохранения жизни детей, преступниками ― ради добропорядочных людей, просто людьми ― ради врачей, и животными ― ради спасения людей вообще. Однако в данном случае цель была ― собрать материал для электронной системы автомобиля-беспилотника, который технически и не должен представлять собой искусственную личность.
В резонансном интервью[4], данном в марте этого года The New York Times, знаменитый лингвист и философ Ноам Хомский специально отмечал, что GPT-3 от OpenAI и другие подобные разработки страдают «отсутствием здравого смысла» (то есть совершают ошибки при оперировании малыми данными) и ценностной неопределенностью. Не только Н. Хомским отмечалась граничащая с цинизмом ценностная нейтральность нейросетей, которые демонстрируют либо расизм, женоненавистничество и т. п., либо готовность поддержать любую точку зрения (в то время как человек будет придерживаться собственных нравственных взглядов, даже если кто-то и будет ему возражать).
Вопрос о том, что нужно сделать для целенаправленного создания искусственного морального агента, подробно исследуется Майклом и Сьюзен Ли Андерсонами[5]. Авторы выделяют условия технической осуществимости этой задачи. Среди них ― не только автономность, но и преднамеренность действия (intentionality), основанная на способности анализировать ситуацию, то есть соотносить ее с определенными критериями вместе с вытекающей из этого способностью оценивать самое себя. С точки зрения Андерсонов, такую систему можно признать нравственным агентом, даже если она не будет способна к эмпатии, сопереживанию.
На уровне предметных областей уже в середине 2000-х годов считались разными дисциплинами: а) компьютерная этика (computer ethics, technology ethics) ― этика для людей, которые разрабатывают новые технологии и пользуются ими, и б) машинная этика, (machine ethics) ― этика машин, которая, по определению Андерсонов, "рассматривает эти системы как действительных или потенциальных моральных агентов, к которым можно отнести моральную похвалу или порицание«[6].
Возможно, роботы вообще создадут какую-то свою собственную этику...
Отправной точкой дискуссии, несомненно, следует считать знаменитую статью А. Тьюринга с описанием теста, в котором человеку предлагается определить, взаимодействует он с искусственным интеллектом или с другим человеком[7]. Успешное прохождение программой этого теста стало важным критерием оценки работы создателей ИИ. Вполне вероятно, что он обусловил направление развития технической мысли, и мы сейчас имеем дело с подлинным ее торжеством, несомненно достойным восхищения: почти решена задача построения системы, которая может обойти тест А. Тьюринга. Но из этого нельзя делать вывод, что создана искусственная личность. По сути, это решение задачи по разработке интерфейса программы.
Наиболее значимым критиком А. Тьюринга был философ Дж. Сёрл, автор термина «сильный искусственный интеллект», введенного им для обозначения системы, которая не просто проходит тест А. Тьюринга, но действительно в том или ином смысле осознает используемые ею алгоритмы. Личность не просто пользуется словами по определенным правилам, реагируя на вопросы, а понимает слова и то, как именно ими пользоваться. Получается, даже если мы в тесте А. Тьюринга перестанем отличать, человек с нами общается или «машина», из этого вовсе не будет следовать, что на другом конце коммуникации имеется личность в собственном смысле слова.
Причинами целенаправленного создания генеративных текстовых систем, сложно отличимых от естественного интеллекта, возможно, стали, во-первых, желание удобства для самих разработчиков, а именно упрощение процедуры загрузки данных, сопровождения и контроля работы нейросети. Во-вторых, стремление создать настроенный на потребности пользователя человекоподобный интерфейс.
Наконец, хотелось бы выделить два критерия, понятные одновременно и философам, и конструкторам систем ИИ, благодаря отсутствию которых современные разработки не могут считаться самостоятельным искусственным агентом:
1) Полноценная автономия (удаленность от разработчика/оператора или эффективное функционирование без постоянного их вмешательства не могут быть критериями автономности);
2) Интенциональность (не как психологический феномен воли и/или намерения, но как процесс осознания и оценки ситуации с применением определенной ценностной парадигмы).
Насколько известно, подобные разработческие задачи еще не реализованы.
* Статья подготовлена на основе результатов исследования, выполняемого в рамках гранта РНФ № 22-28-00379.
[1] Frankish K., Ramsey W. M. (eds.) (2014) The Cambridge Handbook of Artificial Intelligence. Cambridge: Cambridge University Press. P. 316―334.
[2] Behdadi D., Munthe C. (2020) A Normative Approach to Artificial Moral Agency. Minds and Machines. No. 30. P. 195―218. https://doi.org/10.1007/s11023-020-09525-8.
[3] Awad E., Dsouza S., Kim R. et al. (2018) The Moral Machine experiment. Nature. Vol. 563. P. 59―64. https://doi.org/10.1038/s41586-018-0637-6.
[4] Chomsky N. (2023) The False Promise of ChatGPT. The New York Times. March 8. URL: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (дата обращения: 10.04.2023).
[5] Anderson M., Anderson S. L. (2007) Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. Vol. 28. No. 4. P. 15―26. https://doi.org/10.1609/aimag.v28i4.2065.
[6] Там же. C. 15.
[7] Turing A. (1950) Computing Machinery and Intelligence. Mind. Vol. 59. No. 236. P. 433―460.
Мы в соцсетях: