Чтение онлайн

ЖАНРЫ

Шрифт:

Я совершенно согласен с тем, что в таком случае гипотеза о том, что робот обладает интенциональностью, кажется вполне рациональной — если мы больше ничего не знаем об этой системе. В действительности другие элементы этой комбинации, кроме внешнего вида и поведения, к делу не относятся. Если бы мы могли построить робота, чье поведение было бы в течение долгого времени неотличимо от человеческого поведения, мы могли бы приписать ему интенциональность. Нам вовсе не нужно было бы знать заранее, что его компьютерный мозг представляет собой формальную аналогию с человеческим мозгом.

Но я не вижу, как это может помочь утверждениям сторонников сильной версии ИИ. И вот почему: согласно этой версии формальная программа с правильными входными и выходными данными является достаточным условием и составной частью интенциональности. Как писал Ньюэлл (Newell, 1979), основой ментального является деятельность системы физических символов. Но наше признание интенциональности

робота в этом примере не имеет ничего общего с формальными программами. Оно основано на предположении, что если робот выглядит и действует достаточно похоже на нас, то мы должны предположить, пока не доказано обратное, что у этого робота есть ментальные состояния, подобные нашим; что эти состояния обуславливают его поведение и им выражаются; что робот имеет некий внутренний механизм, способный производить эти состояния. Если бы мы знали, как иначе можно объяснить его поведение, мы бы не стали приписывать ему интенциональность, в особенности если бы мы знали о наличии у него формальной программы. И именно в этом — смысл моего предыдущего ответа на возражение II.

Представьте, что нам было бы известно, что поведение робота полностью определяется спрятанным внутри него человеком, который получает неинтерпретированные формальные символы от сенсорных рецепторов робота и посылает неинтерпретированные формальные символы его двигательному аппарату. Человек производит эти формальные манипуляции согласно неким правилам. Далее, представьте себе, что человеку ничего не известно о роботе — он знает лишь то, какое действие производить с данными бессмысленными символами. В этом случае мы рассматривали бы робота как хитроумное механическое приспособление. Гипотеза о том, что у этого приспособления есть разум, оказалась бы необоснованной и ненужной. У нас больше не было бы причины приписывать интенциональность роботу или системе, частью которой тот является (за исключением, разумеется, интенциональности человека, манипулирующего символами). Формальная манипуляция символами продолжается, входные данные соотносятся с выходными согласно правилам, но единственным реальным фокусом интенциональности является человек, и человек этот понятия не имеет ни о каком относящемся к делу интенциональном состоянии. Например, он не видит того, на что направлены глаза робота, он не намеревается пошевелить рукой робота и не понимает замечаний, которые робот слышит и отпускает. То же самое можно сказать о системе, частью которой робот и человек являются.

Чтобы понять это последнее утверждение, сравним этот случай с теми, где мы естественно приписываем интенциональность членам некоторых других человекообразных групп, таким как различные обезьяны и приматы, и домашним животным, таким как собаки. Существуют, грубо говоря, две причины, по которым мы находим это естественным. Во-первых, мы не можем объяснить поведения животного, не приписав ему интенциональности. Во-вторых, мы видим, что эти животные сделаны из того же материала, что и мы сами — вот глаз, вот нос, вот кожа и так далее. Принимая во внимание последовательность поведения животного и предположение о том, что в его основе лежит каузальность, мы предполагаем, что поведение животного обусловлено наличием у того ментальных состояний и что механизмы, порождающие эти состояния, напоминают соответствующие механизмы человека. Мы безусловно предположили бы то же самое о роботе, если бы у нас не было оснований этого не делать; однако, если бы мы узнали, что его поведение — результат формальной программы и что действительные каузальные характеристики физического материала к делу не относятся, мы бы отказались от гипотезы интенциональности.

Существуют еще два ответа на мой пример — поскольку они встречаются часто, их стоит обсудить, хотя они и не улавливают сути проблемы.

5. Ответ другого разума (Иель). “Откуда вы знаете, что другие люди понимают китайский или вообще что-либо? На это указывает только их поведение. В принципе, компьютер может пройти тест на адекватное поведение не хуже человека; поэтому, если вы приписываете разумность человеку, вы в принципе обязаны признать разумность компьютера”. На это возражение вполне достаточно короткого ответа. Проблема состоит не в том, откуда я узнаю, что другие люди нечто понимают, но в том, что я приписываю этим людям, когда я уверен в их понимании. Основа моего аргумента в том, что это не могут быть лишь вычислительные процессы вкупе с выходными данными, поскольку и эти процессы и их результат могут существовать помимо когнитивных состояний. Притворяться, что при понимании отсутствуют другие чувства, не является ответом на мои доводы. В “когнитивных науках” предполагается, что ментальное реально и познаваемо, так же, как в естественных науках предполагается, что физические объекты реальны и познаваемы.

6. Ответ многих жилищ. “Вся

ваша аргументация предполагает, что ИИ имеет дело только с цифровыми и аналоговыми компьютерами. Но это всего лишь сегодняшняя технология. Каковы бы ни были те каузальные процессы, которые вы полагаете основными для интенциональности (если вы правы), когда-нибудь мы сможем создать механизмы, обладающие этими каузальными свойствами — это и будет искусственный разум. Поэтому ваши аргументы не направлены против способности искусственного разума производить и объяснять когнитивные состояния”.

В действительности, у меня нет возражений против такого ответа, кроме одного: он делает сильную версию ИИ тривиальной, определяя искусственный интеллект как что-либо, что искусственно порождает и объясняет когнитивные состояния. Первоначальная гипотеза сильной версии ИИ была интересна тем, что она выдвигала четкий, хорошо определенный тезис: мыслительные процессы есть вычислительные процессы, манипулирующие формальными символами. Я пытался оспаривать именно это утверждение. Если утверждение изменяется, мои возражения, разумеется, становятся неприменимы.

Теперь вернемся к вопросу, на который я обещал дать ответ. Предположим, что в первоначальном примере я понимаю английский и не понимаю китайского, и что машина, таким образом, не понимает ни того ни другого. Тем не менее, во мне может иметься нечто, что позволяет мне понимать английский, и отсутствовать нечто, позволившее бы мне понимать китайский. Нельзя ли дать эти свойства, какими бы они ни были, машине?

В принципе я не вижу причины, по которой мы не могли бы дать машине способности понимать китайский или английский, поскольку в некотором важном смысле наше тело с нашим мозгом и есть такая машина. Но я решительно возражаю против того, что мы могли наделить подобным свойством машину, чья деятельность определяется только в терминах вычислительных процессов в приложении к формальным символам — то есть машину, эквивалентную компьютерной программе. Я понимаю английский и обладаю другими формами интенциональности вовсе не благодаря тому, что являюсь воплощением компьютерной программы (вероятно, я являюсь воплощением целого ряда программ). Насколько я знаю, мое понимание объясняется тем, что я принадлежу к определенному типу организмов с определенной биологической (то есть физической и химической) структурой, и эта структура в определенных условиях каузально способна порождать восприятие, действие, понимание, обучение и другие интенциональные феномены. Часть смысла моих доводов в том, что только то, что обладает подобной каузальностью, способно порождать подобную интенциональность. Может быть, другие физические и химические процессы могут производить точно такое же действие; например, марсиане имеют интенциональность, хотя их мозги сделаны из другого материала. Это эмпирический вопрос, подобный вопросу о том, может ли фотосинтез осуществляться с помощью вещества, химически отличного от хлорофилла.

Основной смысл моего аргумента в том, что никакая чисто формальная модель сама по себе не будет достаточна для интенциональности, поскольку формальные свойства сами по себе не являются составляющими интенциональности и не имеют каузальных свойств, кроме свойства переходить к следующему формальному шагу в процессе работы машины. Любые другие каузальные свойства, которые может иметь данное воплощение формальной модели, не имеют прямого отношения к этой формальной модели, поскольку та же формальная модель может быть воплощена в механизме, не имеющем этих каузальных свойств. Даже если, по чудесному стечению обстоятельств, китайцы являются точным воплощением программы Шенка, мы можем снабдить той же программой англо-говорящих людей, водопроводные трубы или компьютеры, и никто из них не будет понимать китайского, несмотря на программу.

В работе мозга важен не призрак формальности, появляющийся благодаря последовательности синапсов, а действительные свойства этих последовательностей. Все доводы в пользу сильной версии ИИ, которые мне встречались, обводят тени, отброшенные когнитивными процессам, и затем утверждают, что эти тени и есть сами процессы.

В заключение я хочу сформулировать некоторые общие философские идеи, которые в неявной форме встретились в этом аргументе. Для ясности я сделаю это в форме вопросов и ответов, начав с классического вопроса:

“Может ли машина думать?”

Ответ на этот вопрос, разумеется, положительный. Мы и есть такие машины.

“Да, но может ли думать искусственная машина, созданная человеком?”

Если предположить, что возможно создать машину с нервной системой, нейронами с аксонами и дендритами и всем остальным, достаточно похожим на то, чем обладаем мы, ответ, очевидно, снова будет положительным. Если вы сможете повторить причины, вы сможете повторить и следствия. На самом деле возможно, что сознание, интенциональность и все остальное удастся получить, используя химические принципы, отличные от тех, на которых основан человек. Как я говорил, вопрос это чисто эмпирический.

Поделиться с друзьями: