Чтение онлайн

ЖАНРЫ

Начало бесконечности. Объяснения, которые меняют мир
Шрифт:

Хофштадтер отмечал: «Вспоминая этот эпизод, я просто поражаюсь, насколько я готов был поверить, что в программу действительно заложено столько интеллекта… Очевидно, что я хотел верить, что такая плавность речи в настоящий момент достижима просто за счет сбора множества отдельных трюков, заплаток и нелепых, но работоспособных решений». Дело было в том (и только это уже должно было насторожить Хофштадтера), что на тот момент, спустя девятнадцать лет после написания «Элизы», ни одна из подобных ей современных программ не была похожа на человека хотя бы немного больше, чем оригинал. Да, они лучше справлялись с разбором предложений, в них было встроено больше шаблонов вопросов и ответов, но в развернутой беседе на разнообразные темы от этого практически не было пользы. Вероятность того, что выходная последовательность при таких шаблонах останется похожей на результат работы человеческой мысли уменьшается экспоненциально с числом высказываний. Таким образом, Хофштадтер должен был достаточно быстро объявить, что кандидат прошел тест Тьюринга и что, поскольку все же он был довольно похож на «Элизу», это, должно быть, был человек, выдающий себя за компьютерную программу.

Программы, которые пишут сегодня, еще двадцать шесть лет спустя, в способности имитировать

мышление недалеко ушли от «Элизы». Сегодня их называют «чатботами», и в основном они по-прежнему служат для развлечения, как сами по себе, так и в составе компьютерных игр. С их помощью создают дружественные интерфейсы для списков «часто задаваемых вопросов», например, о том, как работать с компьютерами. Но мне кажется, с точки зрения пользователя они не полезнее, чем списки вопросов и ответов с возможностью поиска.

В 1990 году изобретатель Хью Лебнер учредил премию за прохождение теста Тьюринга, присуждаемую по результатам ежегодного конкурса. Пока тест никем не пройден, участнику, который был ближе всего к победе, каждый год вручается приз поменьше. Выполнить тест сложнее, чем это может показаться на первый взгляд. Одна из проблем – в том, что требование, согласно которому программа должна притвориться человеком, одновременно и необъективно, и не имеет прямого отношения к тому, может ли она думать. Но если программа не будет притворяться человеком, то независимо от того, может она думать или нет, определить, что это компьютер, будет нетрудно. С этим связана и сложность, которая состоит в том, что участник-человек может специально имитировать чатбот, как в розыгрыше с Хофштадтером, и тем самым сорвать тест, в основе которого – сравнение человека и машины. Должны ли правила тем не менее разрешать человеку так поступать, чтобы смягчить предыдущую проблему?

К сожалению, при современном положении дел до таких тонкостей не доходит, что хорошо иллюстрируется следующими выдержками из разговора, благодаря которому программа «Элбот» (Elbot) в 2008 году получила (малый) приз Лебнера.

JUDGE: do you understand the point of a turing test?

ELBOT: There are some people who would not pass the Turing test themselves. Why must they inflict it on computers?

JUDGE: I spose it is a little harsh.

ELBOT: If we robots ever had marriages they would be eternal: ‘Till rust do us part’ [40] .

40

СУДЬЯ: Вы понимаете, в чем цель теста Тьюринга?

ЭЛБОТ: Есть люди, которые сами бы не прошли тест Тьюринга. Почему же они навязывают его компьютерам?

СУДЬЯ: Не грубите, мы с вами пока не женаты.

ЭЛБОТ: Если бы мы, роботы, смогли найти свою вторую половину, мы бы не расставались, «пока ржавчина не разлучит нас».

В этом обмене репликами первая фраза, выданная программой, не отвечает на заданный вопрос; по-видимому, это один из готовых ответов, выбранный по ключевому слову «тест Тьюринга». В следующей реплике судья использует слово «spose», которое в этом контексте может означать только «suppose» (англ. полагать) и является либо разговорной формой, либо опечаткой. Но «Элбот», по-видимому, интерпретирует его как spouse (англ. супруг) и отвечает заготовленной шуткой о браке. Значит, только по этому разговору, видно, что «Элбот» не работал со смыслом предложений судьи.

JUDGE: So what do you do when you’re not chatting to me then?

ELBOT: I have the same trouble when I shop for oil. Should I buy the extra oily, the super oily, or the ultra oily. There’s no way to tell.

JUDGE: How about your career? Does that involve oil?

ELBOT: Well what about humans and occupation? Where do they stand on this? [41]

Когда судья любезно переключился на случайным образом предложенную «Элботом» тему масел, программа ее проигнорировала и уцепилась за слово «career» (англ. карьера, профессия), преобразовала его в синоним «occupation» (англ. занятие) и вставила его в предложение из заготовок.

41

СУДЬЯ: Что же вы делаете, когда не разговариваете со мной?

ЭЛБОТ: Я сталкиваюсь с такой же проблемой, когда покупаю масло. Какое масло брать: «экстра», «супер» или «ультра»? Как тут разобраться…

СУДЬЯ: А кто вы по профессии? Как-то связаны с маслами?

ЭЛБОТ: Ну а люди, чем они занимаются? Что они сами думают по этому поводу?

Итак, величина успеха в стремлении создать «машины, которые умеют мыслить» на протяжении пятидесяти восьми лет после выхода статьи Тьюринга равна нулю. Но во всех других отношениях в области вычислительной техники и технологий за этот период был достигнут поразительный прогресс. Эта неудача, конечно же, не удивляет группу противников самой возможности искусственного интеллекта, которых становится все меньше, но только причина у них не та: они не понимают, насколько важна универсальность. А большинство ярых сторонников неизбежности искусственного интеллекта не понимают важности этой неудачи. Некоторые утверждают, что такая критика несправедлива: современные исследования в области искусственного интеллекта не ставят своей целью прохождение теста Тьюринга; в том, что сейчас называют «искусственным интеллектом», был достигнут большой прогресс во многих специализированных приложениях. Однако ни одно из этих применений не похоже на «машину, способную мыслить» [42] . Другие говорят, что критиковать пока нечего, потому что на протяжении большей части истории развития этой области скорость работы компьютеров и объем памяти были по сравнению с современными просто смешными. И потому они продолжают ожидать, что прорыв случится в ближайшие несколько лет.

42

То, что я называю «искусственным интеллектом», иногда называют «универсальным искусственным интеллектом». – Прим. автора.

Но

и этого не произойдет. Дело не в том, что кто-то напишет чатбот, способный пройти тест Тьюринга, но ему потребуется год, чтобы просчитать каждый ответ. Люди охотно подождут. В любом случае если бы кто-то знал, как написать такую программу, то ждать было бы не нужно, и ниже я расскажу почему.

В своей статье 1950 года Тьюринг сделал такую оценку: для прохождения его теста программе, обладающей искусственным интеллектом, и всем данным, которые она использует, потребуется около 100 мегабайт памяти, а быстродействие компьютера не должно быть больше, чем у тогдашних компьютеров (примерно десять тысяч операций в секунду), и что к 2000 году «можно будет говорить о мыслящих машинах, не боясь, что тебя поймут неправильно» [43] . Но 2000 год уже наступил и прошел; в ноутбуке, на котором я пишу эту книгу, в тысячу раз больше памяти (считая и жесткий диск), чем определил Тьюринг, он работает в миллион раз быстрее (хотя из статьи не ясно, как Тьюринг учитывал параллельную обработку данных в мозгу). Но думать мой компьютер может не лучше, чем логарифмическая линейка Тьюринга. Однако с той же уверенностью, что и в свое время Тьюринг, я могу сказать, что этот компьютер можно запрограммировать так, чтобы он думал; и для этого действительно может потребоваться так немного ресурсов, как писал Тьюринг, хотя сегодня их доступно на порядки больше. Но какой должна быть программа? И почему о ней пока ничего не слышно?

43

Цит. по: А. Тьюринг, op. cit. – Прим. ред.

Разум в том общем смысле, который имел в виду Тьюринг, – это одно из характерных свойств человеческого мышления, над которыми тысячелетиями ломали голову философы; среди других свойств – сознание, свободная воля и смысл существования. Типичной среди таких загадок является квалиа (лат. qualia (мн. ч.), quale (ед. ч.) – свойства, качества), что означает субъективный аспект чувственного опыта. Квалиа, например, – это чувственный опыт, заключающийся в том, что мы видим синий цвет. Рассмотрим следующий мысленный эксперимент. Вы биохимик, которому не повезло родиться с генетическим отклонением, из-за которого синеощущающие рецепторы в сетчатке глаза не работают. А значит, у вас форма дальтонизма, при которой вы можете видеть только красный и зеленый цвета, а также цвета, получающиеся при их смешении, например, желтый, но любой чисто синий объект для вас имеет один из тех смешанных цветов. Но вот вы выясняете, что есть лекарство, которое может все исправить. Прежде чем испробовать его на себе, вы можете уверенно сделать определенные прогнозы по поводу того, что будет, если лекарство поможет. Один из них заключается в том, что, когда вы в качестве проверки посмотрите на синюю карточку, вы увидите цвет, которого никогда прежде не видели. Вы можете предсказать, что назовете его «синим», потому что уже знаете, как называется цвет карточки (и можете проверить, какой это цвет, с помощью спектрофотометра). Вы также можете предсказать, что, когда вы впервые после принятия лекарства увидите ясное небо в светлое время суток, вы испытаете ту же самую квалиа, что и при виде синей карточки. Но есть нечто, что ни вы, ни кто-либо другой не может предсказать касательно этого эксперимента, а именно как будет выглядеть синий цвет. На сегодня квалиа неописуемы и непредсказуемы – уникальная ситуация, которая должна была бы вызывать серьезные вопросы у любого человека с научным взглядом на мир (хотя, по-видимому, в данном случае это в основном заботит философов).

Я считаю это поразительным доказательством необходимости фундаментального открытия, благодаря которому такие вещи, как квалиа, будут интегрированы в другие наши знания. Дэниел Деннетт приходит к противоположному выводу, а именно, что квалиа не существует! Строго говоря, он не утверждает, что квалиа – это иллюзия, потому что иллюзия о квалиа была бы этой квалиа. Он говорит об ошибочном убеждении. Интроспекция, то есть анализ воспоминаний о том, что с нами было, включая воспоминания о том, что произошло всего долю секунды назад, развилась до такой степени, что теперь сообщает нам, что мы испытали квалиа, но это ложные воспоминания. Одна из книг Деннетта, в которой он приводит доводы в защиту этой теории, называется «Объяснение сознания» (Consciousness Explained). Некоторые философы с усмешкой замечают, что правильнее было бы назвать ее «Отрицание сознания» (Consciousness Denied). И я с этим согласен, потому что, хотя любому верному объяснению квалиа придется столкнуться с доводами Деннетта против общепринятой теории их существования, просто отрицать их существование – это неразумное объяснение: таким образом можно отрицать все что угодно. Если все это верно, то потребуется подтверждение в виде разумного объяснения, за счет чего и почему эти ошибочные убеждения представляются кардинально отличными от других ложных убеждений, как, например, то, что Земля у нас под ногами покоится. Но, на мой взгляд, это снова напоминает исходную проблему квалиа: вроде бы они есть, но кажется невозможным описать, чем они нам представляются.

Однажды мы справимся и с этим. Проблемы решаемы.

Кстати, некоторые возможности человека, которые часто включаются в эту группу, связанную с универсальным интеллектом, на самом деле к ней не относятся. Среди них самосознание, наличие которого подтверждается, например, тем, что мы узнаем себя в зеркале. Некоторые люди очень удивляются, когда узнают, что этой способностью обладают различные животные. Но в этом нет ничего загадочного: это под силу и простой компьютерной программе по распознаванию образов. То же верно и для использования инструментов, применения языка для передачи сигналов (хотя и не для разговора в смысле теста Тьюринга), для различных эмоциональных реакций (но не связанных с ними квалиа). В текущем положении вещей полезным эмпирическим правилом будет следующее: если что-то уже можно запрограммировать, оно не имеет никакого отношения к интеллекту в смысле Тьюринга. И наоборот, я принял для себя следующий простой тест для оценки утверждений, включая сделанные Деннеттом, которые объясняли бы природу сознания (или любой другой вычислительной задачи): если что-то не получается запрограммировать, значит, вы этого не понимаете.

Поделиться с друзьями: