Чтение онлайн

ЖАНРЫ

Новый ум короля: О компьютерах, мышлении и законах физики
Шрифт:

Терапевт: Чем я могу помочь вам?

Пациент: Я не знаю…

Терапевт: Попробуйте рассказать что-нибудь об этом.

Пациент: Нет.

Терапевт: Можно узнать причину?

Пациент: Я сегодня устал и неважно себя чувствую.

Терапевт: Почему? Есть у вас на этот счет какие-нибудь предположения?

Пациент: Да… Я стар.

Терапевт: Пожалуйста, продолжайте.

Пациент: Мне кажется, что я потерял интерес ко всему происходящему.

Терапевт: Расскажите мне подробнее о ваших ощущениях.

Пациент: У меня есть кое-какие соображения по этому поводу…

Терапевт: У вас есть соображения.

Пациент: Я думаю, что мне недостает семьи.

Терапевт: Что заставляет вас переживать из-за того, что вам недостает семьи?

Пациент: В этом есть какой-то вызов…

Терапевт: Почему это так важно для вас?

Хотя этот диалог может вызвать странное

ощущение понимания проблемы пациента компьютером, ничего подобного на самом деле нет: компьютер просто следует довольно простым механическим правилам. (Есть также и «обратная» ситуация, реализованная в системе, где компьютер, имитирующий страдающего шизофренией человека, дает хрестоматийные ответы и симулирует соответствующие симптомы, способные одурачить некоторых студентов-медиков и заставить их поверить в то, что с ними беседует настоящий живой пациент!)

Компьютеры, играющие в шахматы, дают, наверное, наилучший пример поведения, воспринимаемого как «разумное». В действительности, некоторые машины достигли сегодня (к 1989 году) чрезвычайно высокого мастерства игры, если сравнивать с живыми шахматистами, и приближаются к уровню мастера международного класса. (Рейтинг этих машин составляет немногим менее 2300 единиц Эло, тогда как рейтинг чемпиона мира Каспарова, для сравнения, превышает 2700.) В частности, компьютерная программа (для коммерческого микропроцессора Fidelity Excel), разработанная Дэном и Кейт Спраклэн, достигла показателя 2110 единиц Эло и была удостоена Шахматной федерацией США звания «Мастера». Еще больше впечатляет программа Deep Thought, написанная в основном Хсю (Hsiung Hsu) из университета Карнеги Меллон, рейтинг которой составляет 2500 единиц Эло и которая недавно продемонстрировала замечательное достижение [27] , поделив первое место с гроссмейстером Тони Майлсом на шахматном турнире (Лонгбич, Калифорния, ноябрь 1988 года) и обыграв Бента Ларсена, что можно рассматривать, на самом деле, как первую в истории победу машины над гроссмейстером! [28] Сегодня шахматные компьютеры преуспели и в решении шахматных задач, с легкостью превзойдя в этом людей [29] .

27

В мае 1997 года чемпион мира Г. Каспаров, рейтинг которого превышал 2800 единиц Эло, проиграл компьютерной программе Deep Blueсо счетом 3,5: 2,5. В октябре 2002 года матч между чемпионом мира В. Крамником и программой Deep Fritzзакончился вничью — 4:4. — Прим. ред.

28

Смотри статьи О'Коннелла [1988] и Кина [1988]. За дальнейшей информацией по компьютерным шахматам я отсылаю читателя к Леви[1984].

29

Конечно же, сложность большинства шахматных задач рассчитывалась на людей. Возможно, было бы не так уж трудно придумать шахматную задачу, не очень сложную для человеческого существа, но такую, что современные шахматные компьютеры не смогли бы решить и за тысячу лет. (Принцип подобной задачи достаточно очевиден: она должна состоять из очень большого числа ходов. Известны задачи, требующие для решения порядка 200 ходов — более чем достаточно!)

Шахматные машины опираются во многом на «книжные знания», помноженные на аккуратность просчета комбинаций. Стоит отметить, что машина в целом «обыгрывает» сравнимого по силе соперника в тех случаях, когда ходы необходимо делать быстро; и «проигрывает» живому противнику, если на каждый ход отпускается достаточное количество времени. Это можно понять, если принять во внимание тот факт, что компьютер принимает решения, опираясь на точные и «быстро разветвляющиеся» вычисления; тогда как преимущество живого шахматиста заключается в его способности производить «суждения», базирующиеся на сравнительно медленной сознательной деятельности по оценке ситуации. Эти человеческие суждения сводятся к тому, чтобы «отбраковать» как можно большее число возможных серьезных вариантов ходов, которые необходимо просчитывать в каждый момент; и при достаточном количестве времени на обдумывание хода такие суждения позволяют производить гораздо более глубокий анализ, чем банальное просчитывание и отбрасывание вариантов, при котором машина не использует подобные суждения. (Такая разница еще более наглядно демонстрируется в сложной восточной игре «Го», где число возможностей на каждом ходу значительно больше, чем в шахматах.) Отношение между сознанием и формированием суждений будет центральным моментом в моих дальнейших рассуждениях, особенно в главе 10.

Подход к понятиям «удовольствия» и «боли» с позиций ИИ

Согласно одному из распространенных убеждений, ИИможет указать нам путь к своего рода пониманию таких категорий восприятия, как счастье, боль, голод. Возьмем, к примеру, черепашку Грэя Уолтера. Когда ее батареи садятся, ее поведение изменяется и она начинает действовать так, чтобы пополнить запас своей энергии. Здесь есть явная аналогия с тем, как человеческое существо — или любое другое животное — стало бы вести себя, ощутив голод. Похоже, мы не слишком сильно погрешим против языка, если скажем, что черепашка Грэя Уолтера была голодной, когда она действовала упомянутым образом. Некое устройство внутри нее, способное «ощущать» уровень заряда в батареях, заставляло ее переключаться в другой режим функционирования, когда заряд опускался ниже некоторой отметки. Нет причин сомневаться в том, что подобный механизм включается и в голодных животных, но с единственной разницей — изменения модели поведения в этом случае более сложны и деликатны. Вместо простого переключения с одного режима на другой здесь происходит смена направленностидействий; и эти изменения усиливаются (до определенной степени) по мере того, как нарастает необходимость восстановить запасы энергии.

Исходя из этого, некоторые приверженцы ИИутверждают, что такие понятия, как боль или счастье, могут быть смоделированы аналогичным образом. Давайте упростим задачу и будем рассматривать линейную шкалу «чувств», простирающуюся от крайней «боли» (отметка: -100) до абсолютного «удовольствия» (отметка: +100). Представим далее, что у нас есть устройство — какая-нибудь машина, предположительно электронная, — которая располагает средствами для регистрации собственного (условного) показателя « боль удовольствие », который я буду называть « бу– показатель».Устройство это должно иметь определенные модели поведения и входные данные, как внутренние (типа состояния батарей), так и внешние. Идея заключается в том, что все действия машины должны быть подчинены критерию максимизации ее бу– показателя. Факторов, влияющих на его величину, может быть множество.

Мы, конечно же, можем сделать одним из них уровень заряда батарей, так, чтобы низкий уровень давал отрицательный вклад, а высокий — положительный; но могут существовать и другие факторы. Возможно, наше устройство несет на себе солнечные батареи, которые дают альтернативный источник энергии, при активации которого аккумуляторы перестают использоваться. Мы можем задать такую программу действий, при которой движение к свету будет немного увеличивать бу– показательустройства — что оно и будет стремиться делать при отсутствии иных факторов. (Хотя, на самом деле, черепашка Грэя Уолтера, как правило, избегала света!) Ему потребуются какие-нибудь средства для выполнения вычислений, позволяющих оценивать последствия тех или иных действий в терминах величины бу– показателя. В дополнении к этому оно может уметь вводить вероятностные веса, так, чтобы в зависимости от достоверности исходных данных вычисления давали больший или меньший вклад в бу– показатель.

Помимо этого нашему устройству необходимо будет задать еще и дополнительные «цели», отличные от поддержания уровня его энергетических запасов, поскольку в противном случае мы не сможем отделить «боль» от «голода». Естественно, было бы слишком требовать от нашего механизма способности к размножению, поэтому давайте пока забудем о сексе! Но, возможно, мы могли бы имплантировать ему «желание» общения с аналогичными устройствами, приписывая таким встречам положительное значение бу– показателя. Или же мы можем заложить в него чистую «жажду знаний», когда даже простое накопление фактов об окружающем мире имело бы положительный эффект на величину бу– показателя. (Действуя из эгоистических побуждений, мы могли бы сделать так, что этот показатель увеличивался бы в результате оказания нам различных услуг — в точности, как при создании робота-слуги!) Можно было бы расценивать такой подход к назначению «целей» как искусственный, поскольку мы руководствуемся здесь разве что своими капризам. Но, в действительности, это не слишком уж отличается от способа, которым нам как индивидуумам определяются «цели» в процессе естественного отбора, где главенствующим фактором является необходимость распространять наши гены.

Предположим теперь; что мы благополучно создали наше устройство, учтя все вышеизложенные требования. Но есть ли у нас основания утверждать, что оно будет и вправду чувствоватьудовольствие при положительном, а боль — при отрицательном значениях бу показателя? С позиций ИИ(т. е. с операционалистской точки зрения), мы должны судить об этом просто по тому, как устройство себя ведет. Раз она действует с таким расчетом, чтобы увеличить свой бу– показательнастолько, насколько это возможно (и удерживать его на этом уровне максимально продолжительное время), и, соответственно избегать его отрицательных значений, то было бы разумным определитьчувство удовольствия как степень положительности бу– показателя, а чувство боли — как степень его отрицательности. «Обоснованность» этого метода определения вытекает из полного сходства такого поведения с реакциями человека на удовольствие или боль. Конечно же, человеческие существа, как известно, далеко не так примитивны: иногда мы, кажется, намеренно не избавляемся от боли или избегаем некоторых удовольствий. Очевидно, что в наших действиях мы руководствуемся гораздо более сложными критериями (см. Деннетг [1978]). Но в качестве очень грубой аппроксимации можно считать, что все-таки в большинстве случаев мы стараемся избегать боли и получать удовольствие. Для операционалиста этого было бы достаточно, чтобы оправдать — в таком же приближении — идентификацию бу– показателянашего устройства с его рейтингом по шкале «боль-удовольствие». Возможность установления подобных соответствий — одно из направлений теории ИИ.

Вопрос, который мы должны задать: правда ли, что наше устройство может по-настоящему чувствоватьболь, если его бу– показательотрицателен, и удовольствие в противном случае? Да и способно ли оно чувствовать хоть что-нибудь вообще? Операционалист, конечно, сказал бы «Естественно, да!»; либо отбросил бы этот вопрос как бессмысленный. Но мне представляется, что здесь есть серьезный и сложный вопрос, который необходимо рассмотреть. На наши действие влияет множество разнообразных факторов. Некоторые из них осознанные, как боль или удовольствие, тогда как другие мы не воспринимаем сознанием. Это наглядно иллюстрируется примером человека, касающегося раскаленной плиты. Приводится в действие механизм, который заставляет человека непроизвольно отдернуть руку еще до того, как он почувствовал боль. Вполне может оказаться, что такие спонтанные действия гораздо ближе по своей природе к реакциям нашего устройства, обусловленным его бу– показателем, чем те, которые действительно вызваны болью или удовольствием.

При описании поведения машин часто — и, обычно, в шутку — используются «человеческие» понятия: «Моя машина не хотела заводиться сегодня утром»; или «Мои часы до сих пор думают, что они идут по калифорнийскому времени»; или «Мой компьютер заявляет, что не понимает последнюю команду и не знает, что делать дальше». Конечно же, мы никоим образом не подразумеваем, что машина действительноможет чего-либо хотеть, часы — что-то думать, а компьютер [30] — о чем бы то ни было заявлять, а также пониматьили даже знать, что он делает. Тем не менее подобные выражения могут быть поистине информативными и способствовать нашему пониманию, при условии, что мы их будем рассматривать только в том духе, в котором будем их произносить, а не в буквальном смысле слова. Я всегда занимаю в целом аналогичную позицию по отношению к различным заявлениям сторонников ИИо том, что сконструированные человеком устройства могут обладать характеристиками сознания — безотносительноот того, что под этим подразумевается! Если я согласен говорить, что черепашка Грэя Уолтера может быть голодной, то только лишь в полушутливом тоне. И если я готов использовать такие термины типа «боль» или «удовольствие», связывая их с бу– показателемнекоторого устройства, как я это делал выше, то единственная причина этому заключается в том, что эти выражения облегчают мое понимание поведения устройства благодаря определенным аналогиям с моим собственным поведением и состояниями сознания. Причем здесь я ни в коем случае не подразумеваю, что эти аналогии особенно близки, или что не существует прочих — нерегистрируемых сознанием — явлений, которые влияют на мое поведение гораздо болеесхожим образом.

30

По состоянию дел на 1989 год!

Поделиться с друзьями: