Чтение онлайн

ЖАНРЫ

Шрифт:

Используя Китайскую комнату для аргументации того, что машины не могут думать, мы уходим от вопроса, а не решаем его. Эксперимент порождает конкретную модель машины, которая якобы умеет думать, а затем ставится вопрос: «Вы что, считаете, что в этом случае о подлинном понимании речи не идёт, правда?». Наилучший ответ: «Почему бы и нет?».

Если мир — чисто физический, то под «пониманием» имеется в виду способ рассуждения о конкретной корреляции между информацией, локализованной в одной системе (воплощённой в конкретной совокупности материи), и условиями внешнего мира. Ничто в примере с Китайской комнатой не указывает на то, что мы должны думать именно так, если, конечно, мы уже не уверились в том, что не должны.

Здесь мы не пытаемся преуменьшить

сложности, возникающие при попытке дать дефиницию «пониманию». В учебнике по квантовой теории поля содержится информация о квантовой теории поля, но сама книга не «понимает» своего предмета. Книга не может ответить на вопросы, которые мы могли бы ей задать, а также не может производить расчёты, пользуясь инструментарием теории поля. Понимание — это по факту более динамичная и процессно-ориентированная концепция, чем простое наличие информации, и сложная работа по формулировке аккуратной дефиниции для неё, несомненно, стоит затраченных усилий. Тем не менее, как указывал Тьюринг, нет никаких причин полагать, что такая сложная работа не может быть выполнена на чисто операционном уровне — в контексте того, как именно устроены вещи, без привлечения недосягаемых свойств («понимание», «сознание»), которые с самого начала обозначаются как абсолютно недоступные для наблюдения извне.

При помощи своего мысленного эксперимента Сёрль изначально пытался решить не проблему сознания (определить, что такое «сознавать» и «испытывать»), а проблему познания и интенциональности (определить, что такое «думать» и «понимать»). Однако эти проблемы тесно взаимосвязаны, и Сёрль позже сам обдумывал аргумент о том, что он якобы продемонстрировал невозможность наличия сознания у компьютерной программы. Такое расширение достаточно очевидно: если вы считаете, что заключённая в комнате система ничего не «понимает», то, вероятно, согласитесь, что она также ничего не сознаёт и не воспринимает.

* * *

Мысленный эксперимент с Китайской комнатой заставляет тех, кто считает сознание чисто физическим феноменом, оценить всю драматичность такого заявления. Даже если мы не претендуем на то, что у нас есть детально разобранное представление о сознании, мы должны попытаться чётко формулировать, какие сущности имеют право называться «сознательными». В случае с Китайской комнатой такой вопрос ставится относительно кипы бумаг и книги с инструкциями, но на самом деле это лишь образные способы рассуждения об информации и её обработке в компьютере. Если мы считаем «сознание» простым способом рассуждения о базовых физических явлениях, то в какие неудобные ситуации мы из-за этого попадаем?

Одна из систем, в сознательности которой мы, в общем, не сомневаемся, — это человеческое существо, в основном его мозг, но при желании можно учесть и тело. Человека можно представить как конфигурацию ста триллионов клеток. Если не существует ничего, кроме физического мира, то нам приходится считать, что сознание — это результат конкретных движений и взаимодействий всех этих клеток как между собой, так и с окружающим миром. Представляется, что важен не факт «клеточности» клеток — важны только их взаимодействия друг с другом, динамические закономерности, выстраиваемые ими в пространстве с течением времени. Здесь мы подходим к варианту множественной реализуемости на уровне сознания, иногда называемой «субстрат-независимостью»: паттерны сознательной мысли могут воплощаться в различных субстанциях.

И если это так, то все возможные сущности могут быть сознающими.

Допустим, мы берём один нейрон из вашего мозга и досконально изучаем всё, что он делает, пока не останется никаких вопросов. Мы точно знаем, какие сигналы он будет посылать в ответ на любые мыслимые входящие сигналы. Затем, не подвергая вас никаким иным изменениям, мы удалим этот нейрон и заменим его искусственным, который точно таким же образом обрабатывает весь ввод и вывод. Это будет «нейристор», как у хайнлайновского компьютера Майка с самосознанием. Однако в отличие от Майка вы почти полностью

состоите из обычных биологических клеток, не считая одного заменённого нейрона. Вы по-прежнему обладаете сознанием?

Большинство ответит: да, человек, у которого один нейрон заменён равноценным нейристором, по-прежнему остаётся сознающим. А что, если заменить два нейрона? Или несколько сотен миллионов? Гипотетически все наши внешние действия не изменятся, по крайней мере в том случае, если мир является чисто физическим, а ваш мозг не зависит от вмешательства некой нематериальной души, которая вступает в контакт с органическими нейронами, но не с нейристорами. Человек, у которого все до одного нейроны будут заменены искусственными, действующими совершенно аналогично обычным нейронам, бесспорно, пройдёт тест Тьюринга. Сможем ли мы по-прежнему называть его «сознающим»?

Мы не можем доказать, что такая автоматизированная думающая машина будет обладать сознанием. Логически возможно, что, когда мы будем один за другим заменять нейроны, в какой-то момент случится фазовый переход, но мы не можем спрогнозировать, когда он произойдёт. Однако у нас нет ни доказательств, ни оснований полагать, что такой фазовый переход вообще существует. По Тьюрингу, если киборг, у которого есть как нейроны, так и нейристоры, действует ровно так же, как и обычный человеческий мозг, то мы должны согласиться с наличием у него сознания и всех сопутствующих качеств.

Ещё до того, как Джон Сёрль предложил эксперимент с Китайской комнатой, философ Нед Блок задумывался о возможности смоделировать мозг, взяв за основу всё население Китая. (Почему все выбирают Китай, ставя такие мысленные эксперименты, — подумайте сами.) В мозге гораздо больше нейронов, чем людей в Китае или даже во всём мире, но по меркам мысленного эксперимента это несущественная помеха. Если толпа людей будет обмениваться сообщениями друг с другом, в точности имитируя электрохимические сигналы человеческой коннектомы, можно ли будет трактовать такую совокупность, как «сознание»? Существует ли такой смысл, в котором человеческая популяция — как коллектив, а не как сумма личностей — могла бы обладать внутренним опытом и пониманием?

Допустим, мы картировали человеческую коннектому не только в определённый момент времени, но и в том виде, как она развивается на протяжении жизни. Затем — поскольку мы уже ввязались в столь безнадёжно далёкие от жизни мысленные эксперименты — допустим, что мы записали абсолютно все моменты из жизни человека, в которые сигнал проходит по синапсу. Сохраним всю эту информацию на жёстком диске или запишем её на немыслимо огромном числе листов бумаги. Будет ли эта запись мыслительных процессов индивида как таковая обладать «сознанием»? Требуется ли нам в самом деле развиваться во времени либо статическое представление человеческого мозга в развитии позволит уловить сущность сознания?

* * *

Эти примеры слегка вычурные, но наглядные. Да, если воспроизвести процессы, происходящие в мозге на материале совершенно иной субстанции (будь то нейристоры или люди), то полученный результат определённо должен трактоваться как сознание. Однако если вывести эти процессы на печать и зафиксировать на каком-либо статическом носителе, то никакого сознания не получится.

С точки зрения поэтического натурализма, говоря о сознании, мы не открываем какого-то фундаментального вида материи, существующего во Вселенной. Случай отличается от поиска вируса, вызывающего известное заболевание, когда мы точно знаем, что ищем, и просто хотим зафиксировать вирус нашими приборами, чтобы описать, что он собой представляет. Концепции «сознание» и «понимание», подобно «энтропии» и «теплоте», — из разряда таких, которые мы изобретаем, чтобы получить более полезные или эффективные описания мира. Определять, что концептуально представляет собой сознание, мы должны в зависимости от того, даёт ли нам такая трактовка удобный способ рассуждения о мире, строго согласующийся с данными и подсказывающий, что происходит на самом деле.

Поделиться с друзьями: