Физика невозможного
Шрифт:
Тьюринг тоже принял участие в этой революции. Он показал, что в общем случае невозможно предсказать, потребуется ли машине Тьюринга на выполнение определенных математических операций по заданной ей программе конечное или бесконечное количество шагов. Но если на вычисление чего-то требуется бесконечное время, это означает, что то, что вы просите компьютер вычислить, вычислить вообще невозможно. Так Тьюринг доказал, что в математике существуют истинные выражения, которые невозможно вычислить, — они всегда останутся за пределами возможности компьютера, каким бы мощным он ни был.
Во время Второй мировой войны новаторские работы Тьюринга в области расшифровки кодированных сообщений спасли тысячи солдат союзников и, очень может быть, повлияли на исход войны. Союзники,
Тьюринга не только не вознесли как героя, который помог переломить ход Второй мировой войны; нет, его попросту затравили до смерти. Однажды его дом обокрали, и ученый вызвал полицию. К несчастью, полиция обнаружила в доме свидетельства гомосексуализма хозяина и, вместо того чтобы искать воров, арестовала самого Тьюринга. Суд постановил подвергнуть его инъекции половых гормонов. Эффект оказался катастрофическим: у него выросли груди. В 1954 г. Тьюринг, не выдержав душевных мук, покончил с собой — съел яблоко, начиненное цианидом. (По слухам, надкушенное яблоко, ставшее логотипом корпорации Apple, — дань уважение Тьюрингу.)
Сегодня Тьюринга, вероятно, лучше всего знают благодаря тесту Тьюринга. Устав от бесплодных и бесконечных философских дебатов о том, может ли машина «думать» и есть ли у нее «душа», он попытался внести в дискуссию об искусственном интеллекте четкость и точность и придумал конкретный тест. Он предложил поместить машину и человека в отдельные изолированные и опечатанные помещения, а затем задавать обоим вопросы. Если вы окажетесь не в состоянии отличить по ответам машину от человека, можно считать, что машина прошла тест Тьюринга.
Ученые уже написали несколько несложных программ (к примеру, программа «Элиза»), способных имитировать разговорную речь и поддерживать беседу; компьютер с такой программой способен обмануть большинство ничего не подозревающих людей и убедить их в том, что они разговаривают с человеком. (Отметим, что в разговорах люди, как правило, ограничиваются десятком тем и используют всего несколько сотен слов.) Но программы, способной обмануть людей, которые знают о ситуации и сознательно пытаются отличить машину от человека, до сих пор не существует. (Сам Тьюринг предполагал, что к 2000 г. при экспоненциальном росте производительности компьютеров можно будет создать машину, способную обмануть в пятиминутном тесте 30 % экспертов.)
Некоторые философы и теологи выступают в этом вопросе единым фронтом: они считают, что создать настоящего робота, способного думать как человек, невозможно. Философ из Университета Калифорнии в Беркли Джон Сирл предложил для доказательства этого тезиса «тест китайской комнаты». По существу, Сирл утверждает, что роботы хотя и смогут когда-нибудь, возможно, пройти тест Тьюринга в какой-то форме, это ничего не значит, потому что они всего лишь слепо манипулируют символами, совершенно не понимая вложенного в них содержания.
Представьте себе: вы, не понимая ни слова по-китайски, сидите в изолированном боксе. Предположим, у вас есть книга, при помощи которой вы можете очень быстро переводить с китайского и на китайский, а также манипулировать знаками этого языка. Если кто-то задает вам вопрос по-китайски, вы просто переставляете согласно книге эти странные значки и даете достоверный ответ; при этом вы не понимаете ни вопросов, ни собственных ответов.
Суть возражений Сирла сводится к разнице между
синтаксисом и семантикой. По Сирлу, роботы способны овладеть синтаксисом языка (т. е. могут научиться корректно манипулировать его грамматикой, формальными структурами и т. п.), но не его истинной семантикой (т. е. смысловым значением слов). Роботы могут манипулировать словами, не понимая, что они означают. (В чем-то это напоминает разговор по телефону с автоответчиком, когда вы должны время от времени нажимать цифру «1», «2» и т. д., следуя указаниям машины. Голос на другом конце провода вполне способен правильно реагировать на ваши цифры, но странно было бы предположить, что он при этом что-то понимает.)Физик Роджер Пенроуз из Оксфорда тоже считает, что искусственный интеллект невозможен; механическое существо, способное думать и обладающее человеческим сознанием, противоречит квантовым законам. Человеческий мозг, утверждает Пенроуз, настолько превосходит все созданное человеком в лаборатории, что эксперимент по созданию человекоподобных роботов просто обречен на провал. (Он считает, что как теорема Гёделя о неполноте доказала, что арифметика неполна, так принцип неопределенности Гейзенберга докажет, что машины в принципе не способны думать по-человечески.)
Однако многие физики и инженеры считают, что ничто в законах природы не противоречит созданию настоящего робота. К примеру, Клода Шеннона, которого часто называют отцом теории информации, однажды спросили: «Могут ли машины думать?» Он ответил: «Конечно». Когда же его попросили пояснить ответ, он добавил: «Я думаю, разве не так?» Иными словами, он счел очевидным, что машины могут думать, потому что люди тоже машины (хотя и сделаны из плоти и крови, а не из микросхем и проводов).
Наблюдая за кинематографическими роботами, можно подумать, что создание и развитие сложных роботов с искусственным интеллектом — дело ближайшего будущего. На самом деле все совсем не так. Если вы видите, что робот действует как человек, это, как правило, означает, что дело нечисто, — это какой-то фокус, скажем, в сторонке сидит человек и говорит за робота, как Гудвин в Волшебной стране. На самом деле даже самые сложные наши роботы, такие как марсианские роботы-роверы, обладают в лучшем случае интеллектом насекомого. Экспериментальные роботы знаменитой Лаборатории искусственного интеллекта MIT с трудом справляются с заданиями, доступными даже тараканам: к примеру, свободно передвигаться по комнате, заставленной мебелью, прятаться или распознавать опасность. Ни один робот на Земле не способен понять простую детскую сказку, которую ему прочитают.
Сюжет фильма «2001: космическая одиссея» основан на неверном предположении о том, что к 2001 г. у нас будет сверхробот HAL, способный пилотировать корабль к Юпитеру, непринужденно болтать с членами экипажа, решать возникающие проблемы и вообще действовать почти по-человечески.
Попытки ученых всего мира по созданию роботов встретились по крайней мере с двумя серьезными проблемами, которые не позволили сколько-нибудь заметно продвинуться в этом направлении: это распознавание образов и здравый смысл. Роботы видят гораздо лучше нас, но не понимают увиденного. Роботы слышат гораздо лучше нас, но не понимают услышанного.
Чтобы подступиться к решению этой двойной проблемы, исследователи пытались применить подход к искусственному интеллекту, известный как «сверху вниз» (иногда его еще называют формалистической школой или «старым добрым ИИ»), Целью ученых, грубо говоря, было запрограммировать все правила и законы распознавания образов и здравого смысла и записать эти программы на один CD-диск. Они считают, что любой компьютер, в который вы вставите этот диск, мгновенно осознает себя и станет разумным, не хуже человека. В 50-60-х гг. XX в. в этом направлении были достигнуты громадные успехи; появились роботы, способные играть в шашки и шахматы, решать алгебраические задачи, поднимать с пола кирпичики и т. п. Прогресс производил настолько сильное впечатление, что зазвучали даже пророчества о том, что через несколько лет роботы по разумности превзойдут людей.