Чтение онлайн

ЖАНРЫ

Начало бесконечности. Объяснения, которые меняют мир
Шрифт:

Тьюринг придумал свой тест в надежде обойти все эти философские проблемы. Другими словами, он надеялся, что сначала можно добиться функциональности, а потом уже объяснить ее. К сожалению, найти практические решения фундаментальных проблем, не объясняя, почему они срабатывают, удается очень редко.

Тем не менее идея теста Тьюринга, как во многом и эмпиризм, который она напоминает, была очень ценной. Она дала отправную точку для объяснения значения универсальности и для критики древних антропоцентрических допущений, которые исключали возможность искусственного интеллекта. Сам Тьюринг в своей судьбоносной статье методично опроверг все классические возражения (и заодно и некоторые абсурдные). Но его тест основывается на эмпирической ошибке, заключающейся в поиске чисто поведенческого критерия: он требует, чтобы судья вынес заключение безо всякого объяснения того, как должен работать испытуемый искусственный

интеллект. Но ведь на самом деле, чтобы определить подлинность искусственного интеллекта, опираться на объяснения того, как он работает, нужно непременно.

Дело в том, что задача судьи в тесте Тьюринга логически схожа с ситуацией, когда Пейли, гуляя по пустырю, нашел камень, часы или живой организм: нужно объяснить, откуда взялись наблюдаемые свойства объекта. В случае с тестом Тьюринга мы намеренно игнорируем вопрос о том, как было создано знание, необходимое для разработки объекта. Тест имеет дело только с тем, кто разработал высказывания искусственного интеллекта: кто придал им смысл, кто создал знания, содержащиеся в них? Если это дело рук разработчика, то программа не является искусственным интеллектом. А если самой программы, то она – действительно искусственный интеллект.

Время от времени этот вопрос возникает и в отношении самих людей. Например, фокусников, политиков, экзаменующихся иногда подозревают в том, что кто-то через спрятанные наушники передает им информацию, которую они затем механически повторяют, притворяясь, что это плод их собственной мысли. Или когда врач берет у пациента согласие на какую-либо медицинскую процедуру, он должен убедиться, что пациент не просто проговаривает слова, а понимает, что они означают. Для этого можно по-разному повторять вопрос или задать другой вопрос, в котором присутствуют те же слова, и посмотреть, изменятся ли ответы. Это естественно для любого свободно текущего разговора.

Тест Тьюринга устроен похожим образом, однако акцент в нем делается на другом. Когда тестируется человек, нужно установить, в здравом ли он уме (и действует ли он по своей воле, а не в интересах другого лица). При тестировании искусственного интеллекта мы хотим найти трудноварьируемое объяснение тому факту, что его высказывания не могут исходить ни от какого человека, а могут принадлежать только искусственному интеллекту. В обоих случаях опрашивать человека в качестве контрольного примера бессмысленно.

Без разумного объяснения того, как были созданы высказывания некоего существа, наблюдения за этим процессом нам ничего не скажут. В тесте Тьюринга, на самом простом его уровне, нас нужно убедить в том, что высказывания не сочиняются непосредственно человеком, притворяющимся искусственным интеллектом, как в розыгрыше с Хофштадтером. Но подлог – это меньшая из возможных бед. Например, выше я предположил, что «Элбот» процитировал заготовленную шутку в ответ на ошибочно опознанное ключевое слово «spouse». Но значение этой шутки было бы совершенно иным, если бы мы знали, что это не заготовка, поскольку никто ее в программу не закладывал.

Но откуда мы могли бы это узнать? Только из разумного объяснения. Например, мы могли бы это знать, если бы сами написали программу. Или если бы автор программы объяснил нам, как она работает: как создает знания, включая шутки. Окажись объяснение разумным, нам следовало бы признать, что программа – искусственный интеллект. На самом деле, если бы у нас было только такое объяснение, но мы бы еще не видели результата работы программы и даже если бы она еще не была бы написана, мы бы все равно должны были заключить, что это настоящий искусственный интеллект. И тест Тьюринга был бы не нужен. Вот почему я говорю, что если бы недостаток вычислительной мощности был единственным препятствием в создании искусственного интеллекта, то не было бы смысла ждать его практической реализации.

Детальное объяснение принципа работы искусственного интеллекта вполне может оказаться исключительно сложным. На практике авторское объяснение всегда будет даваться на некоем эмерджентном, абстрактном уровне. Но это не мешает ему быть разумным. Разъяснять конкретные вычислительные шаги, из которых получилась шутка, не придется так же, как и теория эволюции не должна объяснять, почему в истории данной адаптации сохранилась или не сохранилась каждая конкретная мутация. Должно быть только объяснено, как это могло произойти и почему следует ожидать, что это случится, с учетом того, как работает программа. Если это разумное объяснение, мы убедимся в том, что шутка – знание в ней – зарождается в программе, а не в голове программиста. Таким образом, в зависимости от наилучшего доступного объяснения принципа работы программы одно и то же ее высказывание – шутка – может доказывать как то, что программа не

думает, так и то, что она думает.

Природа юмора изучена недостаточно хорошо, поэтому мы не знаем, требуется ли универсальное мышление для составления шуток. Поэтому вполне понятно, что, несмотря на широкий диапазон тем, на которые можно пошутить, существуют скрытые связи, сводящие весь процесс придумывания шутки к единственной узкой функции. В этом случае однажды вместо людей могут появиться универсальные программы для придумывания шуток, так же, как сейчас у нас есть программы, не являющиеся людьми и играющие в шахматы. Звучит невероятно, но в отсутствие разумного объяснения, которое исключило бы такую возможность, мы не можем считать выдумывание шуток единственным способом оценки искусственного интеллекта. Но что мы можем сделать – это вести разговор на более чем разнообразные темы и следить за тем, адаптируются ли ответы программы по смыслу к различным возникающим в процессе целям. Если программа на самом деле думает, то в ходе такого разговора она проявит себя – одним из бесчисленных и непредсказуемых способов, – так же как это сделали бы вы или я.

Есть и более глубокая проблема. Способности искусственного интеллекта должны обладать своего рода универсальностью: специализированное мышление не будет считаться мышлением в том смысле, который предполагал Тьюринг. Я предположу, что каждый искусственный интеллект – это субъект – универсальный объяснитель. Можно допустить, что между искусственным интеллектом и «универсальным объяснителем / конструктором» есть и другие уровни универсальности и, возможно, есть отдельные уровни для таких свойств, как сознание. Но, по-видимому, все эти отличительные свойства появились одним скачком к универсальности у человека, и, хотя мы не преуспели в их объяснении, мне неизвестно ни одного убедительного аргумента в пользу того, что они находятся на других уровнях или их можно было достичь независимо друг от друга. Поэтому я предварительно предполагаю, что что они нераздельны. Так или иначе, нам следует ожидать, что искусственный интеллект будет достигнут скачком к универсальности от чего-то гораздо менее мощного. Напротив, способность имитировать человека неидеально или только в отдельных его функциях – это не форма универсальности. Она может существовать в виде отдельных уровней. А значит, даже если чатботы вдруг начнут имитировать (или обманывать) людей гораздо лучше, это все равно не приведет нас к искусственному интеллекту. Научиться лучше притворяться, что умеешь думать, – не то же самое, что приблизиться к способности думать.

Существует философское направление, главный принцип утверждает, что это, напротив, одно и то же. Это течение называется бихевиоризмом и является инструментализмом в применении к психологии. Другими словами, это учение о том, что психология может или должна только быть наукой о поведении, а не о мышлении, что она может только измерять и предсказывать отношения между внешними обстоятельствами людей («стимулами») и наблюдаемым поведением людей («реакцией»). Последнее, к сожалению, представляет собой именно тот подход, который в рамках теста Тьюринга должен применять судья, рассматривая кандидата на искусственный интеллект. Тем самым поддерживается установка, что если программе удается достаточно хорошо притворяться искусственным интеллектом, значит, она им обладает. Но в конечном счете программа, не являющаяся искусственным интеллектом, не может его имитировать. Путь к искусственному интеллекту не может лежать через все более удачные трюки, благодаря которым чатботы становятся более убедительными.

Вне сомнения, бихевиорист спросит: а в чем, собственно, разница между тем, что мы дадим чатботу очень богатый набор трюков, шаблонов и баз данных, и тем, что наделим его возможностями искусственного интеллекта. Что такое программа искусственного интеллекта, если не набор таких трюков?

При обсуждении ламаркизма в главе 4 я указал на фундаментальную разницу между усилением мышцы в течение жизни одной особи и увеличением ее силы в ходе эволюции. В первом случае знание о том, как достичь всех доступных мышечных сил должно присутствовать в генах особи еще до начала череды изменений. (И то же относится к знанию о том, как распознать обстоятельства, при которых нужно запускать изменения.) Это точный аналог «трюка», который программист должен встроить в чатбот: чатбот отвечает, «как если бы» он при составлении ответа создал часть знания, но на самом деле все знания были созданы заранее и в другом месте. Аналогом эволюционных изменений вида является творческое мышление человека. Аналог идеи о том, что искусственный интеллект можно создать, накапливая трюки чатбота, – это ламаркизм, теория о том, что новые адаптации можно объяснить изменениями, которые в действительности являются лишь проявлением существующих знаний.

Поделиться с друзьями: