«Китайская комната»
«Кита́йская ко́мната» (англ. Chinese room), мысленный эксперимент философа Дж. Сёрла, представленный им в статье «Разумы, мозги и программы» («Minds, Brains, and Programs», 1980). Мысленный эксперимент направлен против концепции «сильного искусственного интеллекта» (ИИ). Сёрл формулирует позицию сторонников сильного ИИ следующим образом: 1) компьютеры буквально обладают пониманием высказываний и могут отвечать на вопросы о них, 2) компьютеры объясняют способность человека понимать высказывания и отвечать на вопросы о них (Searle. 1980. Р. 417). Сёрл противопоставляет сильный ИИ т. н. слабому ИИ, согласно которому компьютеры только имитируют понимание, хоть и приносят пользу как инструмент для исследования разума.
Содержание мысленного эксперимента и выводы
Именно анализу и опровержению двух вышеуказанных утверждений посвящён мысленный эксперимент. Сёрл предлагает следующие условия. Испытуемый, в роли которого автор представляет себя, находится в комнате с окном, которое даёт возможность передачи ему некоторых документов извне и возвращения документов наружу. В начале эксперимента ему даётся некоторое количество листков с китайскими иероглифами. Он абсолютно не знает китайского языка, не знает китайскую письменность и не сможет даже определить, что это за язык, поэтому он не может понять ничего из переданных ему данных. После первой партии китайской письменности ему дают вторую партию вместе с набором правил для соотнесения второй партии с первой. Правила написаны на английском, поэтому он в состоянии их понять, что позволяет ему соотнести набор символов из первой партии с набором символов из второй. Затем ему дают третью партию китайских символов вместе с инструкциями на английском языке о том, как соотнести символы из этой партии с символами из первой и второй. Кроме того, третья партия содержит указания на то, как вернуть в окно для передачи определённые китайские символы с определёнными формами в ответ на определённые символы в третьей партии. Люди вне комнаты называют первую партию «сценарием», вторую партию – «историей», третью партию – «вопросами», а символы, предоставляемые Сёрлом в ответ на третью партию, – «ответами на вопросы». Набор правил на английском языке они называют «программой». Сёрл отмечает, что, с точки зрения человека, находящегося вне комнаты, его ответы на вопросы абсолютно неотличимы от ответов носителей китайского языка. Для наглядности Сёрл добавляет в условия эксперимента также взаимодействие на английском языке с людьми вне комнаты, которое Сёрл как испытуемый полностью понимает. Он отмечает, что, с точки зрения того, кто читает его «ответы», ответы на китайские вопросы и английские вопросы одинаково хороши. Со стороны Сёрл выглядит так, как будто понимает китайский язык, но сам он отмечает, что просто ведёт себя как компьютер, выполняя вычислительные операции над формально заданными элементами.
Анализируя эту ситуацию, Сёрл делает два вывода, соответствующих двум вышеуказанным утверждениям, которые он оспаривает. Во-первых, несмотря на то что он может обладать какой угодно формальной программой, детально имитирующей понимание китайского языка, у него самого это понимание отсутствует. Так же и компьютеры, претендующие на реализацию сильного ИИ, не обладают реальным пониманием того содержания, с которым они работают. Во-вторых, без фактического понимания в данном случае отсутствует и объяснение понимания. Воспроизведение алгоритма, т. е. последовательности действий, не помогает понять, как возможно понимание. Мысленный эксперимент, по мнению Сёрла, показывает, что реализация формальной программы в случае с китайским языком отличается от действительного понимания английского языка. Следовательно, формальная программа, реализуемая на компьютере, не объясняет понимание. Несмотря на то что в статье речь идёт в первую очередь о понимании и языковом аспекте разумной деятельности, в дальнейшем дискуссия вокруг этого мысленного эксперимента стала включать в себя вопрос о сознании. Этот вопрос лишь поверхностно упоминается в изначальной статье и подробнее рассматриваются Сёрлом в последующих его работах (Searle. 1984; Searle. 2002). Таким образом, данный аргумент допустимо использовать как универсальный аргумент против различных версий функционализма и бихевиоризма в вопросе о природе разума и сознания.
Аналогичные рассуждения и контекст
Аргументация Сёрла дополняет и развивает идеи, изложенные в аналогичных или сходных аргументах предшественников. В каком-то смысле она объединяет наработки предшествующих мысленных экспериментов. Наиболее известным мысленным экспериментом подобного рода является «Мельница Лейбница». В своей работе «Монадология» Г. В. Лейбниц предлагает вообразить «машину, устройство которой производит мысль, чувство и восприятия». Войдя в эту машину, как в мельницу, мы не обнаружим там «ничего такого, чем бы можно было объяснить восприятие» (Лейбниц. 1982. С. 415). Хотя речь здесь идёт о восприятии, аргументация сходна с «Китайской комнатой». Кроме того, в примере с «мельницей» содержится идея масштабирования механических процессов, важная для обоих экспериментов. Другой важной составляющей рассуждения Сёрла является возможность имплементации программы на бумаге, т. е. реализации действующего устройства компьютера через сочетание человека и «бумажного компьютера», которое ранее встречалось, например, в рассуждениях А. Тьюринга (Тьюринг. 1950). В статье «Проблемы с функционализмом» («Troubles with Fuctionalism», 1978) Н. Блок излагает мысленный эксперимент под названием «Китайская нация». Он приводит пример функциональной структуры, состоящей из представителей китайской нации, которая, будучи функционально идентичной человеческому мозгу, тем не менее не обладает феноменальным сознанием исходя из общих интуиций. В отличие от Сёрла, Блок полагает, что, хотя китайская нация не обладает феноменальным сознанием, она может обладать функциональными свойствами, такими как убеждения и желания. Следует отметить, что вариация эксперимента Блока является, по мнению некоторых авторов, более наглядной и использовалась в аргументации, в том числе в защиту идеи Сёрла (Penrose. 2002).
Обсуждение статьи и критика
Кроме изложения основной части, статья Сёрла также включает в себя обсуждение его мысленного эксперимента, в том числе возможные возражения, предоставленные коллегами Сёрла, а также его ответы. Дальнейшие комментарии и обсуждения статьи по большей части соответствовали основным линиям этой дискуссии. Можно выделить три основных направления возражений, которые рассматриваются в статье Сёрла и в последующих статьях комментаторов.
Во-первых, можно отрицать, что эксперимент демонстрирует отсутствие понимания, иначе говоря, что он опровергает утверждение о буквальном понимании компьютерами высказываний. У такой аргументации есть две разновидности.
Во-первых, можно утверждать, что Сёрл неверно локализовал область для поиска понимания. Можно согласиться, что у оператора, роль которого исполняет Сёрл, в данной ситуации отсутствует понимание китайского языка и высказываний на нём, но утверждать, что понимание может быть присуще самой функциональной системе, состоящей в числе прочего из базы данных иероглифов, правил, системы ввода-вывода сообщений и для которой оператор, не понимающий китайский язык, является лишь частью, причём не слишком значимой (Searle. 1980.Р. 419). Данный вариант ответа является одним из наиболее распространённых. (Dennett. 1997; Fodor. 1980; Cole. 1984; Kurzweil. 2002; Rey. 1986). Ответы отличаются в отношении того, чем в данной системе является оператор, – например, центральным процессором (Rey. 1986) или имплементатором алгоритма (Kurzweil. 2002). Сёрл отвечает на этот аргумент, внося в эксперимент изменения, делающие, по его мнению, эти уточнения нерелевантными, но не меняющие сущности эксперимента. Он предлагает перенести всю систему правил и данных в память оператора, предполагая, что это устраняет возможность ссылки на понимание в самой функциональной системе. Теперь оператор и есть вся система, однако понимание у него всё ещё отсутствует (Searle. 1980. Р. 420). В ответ на это критики замечают, что предшествующие аргументы продолжают работать и в этой версии эксперимента. По их мнению, перенос системы в разум оператора скорее будет означать возникновение там ещё одного субъекта, чем то, что оператор сам стал системой (Cole. 1984; Block. I978). Отсюда следует, что отсутствие понимания у оператора нельзя распространять на систему в целом, где бы эта система ни находилась.
Во-вторых, некоторые авторы указывают на то, что отсутствие понимания у системы в целом или у какой-либо из её частей, в том числе испытуемого, не указывает на отсутствие понимания в принципе (Sloman. 1980; Maudlin. 1989; Block. 2002). Это направление возражений связано с идеей виртуального разума, возникающего в рассматриваемой системе. Исходя из этого возражения, Сёрл отвечает не на тот вопрос. Действительно значимо не то, есть ли понимание у испытуемого, а скорее возникает ли понимание в ходе реализации алгоритма. При этом факт отсутствия понимания у испытуемого оказывается нерелевантен правильному вопросу потому, что испытуемый является лишь частью системы, а значит, структурно и функционально отличается от неё. Существование виртуального разума само по себе требует отдельного обоснования и рассматриваемое в качестве контраргумента оказывается зависимым от большого количества предпосылок. Однако важно отметить, что этот аргумент не обязательно должен предполагать возможность существования виртуальных разумов, он может ограничиваться указанием на то, что отсутствие понимания у испытуемого или системы не доказывает возникновения понимания в ходе реализации эксперимента.
Второе крупное направление контраргументации связано с критикой условий эксперимента. Можно согласиться с тем, что в рассматриваемых Сёрлом условиях отсутствует понимание, однако настаивать на том, что эксперимент не демонстрирует ложность концепции сильного ИИ, поскольку описываемые в эксперименте обстоятельства сами не соответствуют тем условиям, при которых ИИ мог бы функционировать полноценно. Это направление контраргументации подразделяется на три основных варианта.
Во-первых, можно утверждать, что компьютер, смоделированный в эксперименте, лишён какой-либо телесности (или её аналогов) и возможности воспринимать окружающий мир способом, хотя бы отдалённо напоминающим восприятие человека. Согласно данному возражению, если бы смоделированный в эксперименте компьютер был помещён в тело робота, то он мог бы, взаимодействуя с окружающим миром, придавать значения символам и понимать естественный язык (Searle. 1980. Р. 420). За этим возражением могут стоять две основные идеи: каузальные связи с окружающим миром, играющие роль в формировании семантики, и телесность, которая влияет на когнитивные процессы, а также реализует деятельность в мире и возможность восприятия. Таким образом, каузальная связь с определёнными объектами посредством действий тела и восприятия через органы чувств порождает отношение референции и смысл. Некоторые авторы даже говорят о наличии репрезентации и искусственной интенциональности при правильном воспроизводстве механизма репрезентации окружающего мира (Rey. 2002). Однако для Сёрла такое возражение не является убедительным, поскольку он рассматривает любые входящие данные от компьютерных «органов чувств» как исключительно синтаксический сигнал, лишённый семантики (Searle. 1980. Р. 420). Сам этот тезис оспаривался, в частности, ссылками на каузальный тип семантики (Boden. 1998), что во многом указывает на зависимость выводов в данной части от принимаемых предпосылок.
Во-вторых, можно отметить, что для появления искусственного интеллекта необходима симуляция деятельности мозга: в том числе нейронных связей и структур, как они существуют в обычном человеческом мозге. Однако это возражение не демонстрирует уход от исключительно синтаксической структуры, которая, по мнению Сёрла, составляет такую систему. Сёрл также рассматривает комбинированное возражение, которое предполагает, что компьютер, встроенный в робота, выполняющий программу симуляции мозга, может рассматриваться как единая система, обладающая пониманием. Однако Сёрл отбрасывает это возражение на основании того, что три составляющие его возражения ранее уже были рассмотрены и отклонены (Searle. 1980.Р. 421).
В-третьих, даже если программирование не может быть достаточным для того, чтобы компьютеры обладали пониманием, могут быть разработаны другие средства, которые обеспечат компьютеры тем, что достаточно для понимания. Это возражение Сёрл также отклоняет в связи с отсутствием оснований (Searle. 1980. Р. 422). Кроме того, наличие слишком нечётких предположений выводит эту дискуссию за рамки предложенного эксперимента.
Третье крупное направление контраргументации связано с критикой анализа самих интуиций, возникающих в ходе мысленного эксперимента. В этом направлении также существуют два варианта возражений.
Во-первых, можно утверждать, что вывод о наличии понимания исходя из внешнего поведения является нормальным способом обнаружения понимания у человека. При этом у нас нет какого-то дополнительного способа удостовериться в наличии понимания, который мы могли бы использовать для оценки понимания у «Китайской комнаты». Если мы сомневаемся в наличии сознания у правильно воспроизведённой «Китайской комнаты», то должны сомневаться и в наличии понимания у других людей, и наоборот (Searle. 1980. Р. 421). Ключевое расхождение между Сёрлом и критиками тут заключается в том, какие критерии для оценки наличия понимания у других людей мы используем и насколько мы можем переносить их на ИИ.
Во-вторых, по мнению некоторых авторов (Block. 1978; Boden. I998), интуиция об отсутствии понимания у ИИ не выводится из условий эксперимента, а предшествует ему и основана только на неверном восприятии того, как ИИ должен функционировать. Неверные представления об ИИ и его природе могут влиять на сами предполагаемые условия, делая их излишне упрощёнными. И, даже признавая, что условия воспроизведены верно или что интуиции определены правильно, мы всё ещё можем сомневаться в самих интуициях и их применимости к анализу понятия ИИ.