Чтение онлайн

ЖАНРЫ

Шрифт:

2. Компьютеры будущего

Через сорок лет после атомной бомбардировки Нагасаки ветеран Манхэттенского проекта Ричард Фейнман выступил с докладом в Японии. Тема доклада была мирной, тема, которая занимает многие проницательные умы: будущее компьютеров, в том числе вопросы компьютерной науки, которые сделали Фейнмана провидцем, современным Нострадамусом — нижний предел размера компьютера. Может быть, эта глава вызовет вопросы у некоторых читателей; однако это такая важная часть вклада Фейнмана в науку, что, я надеюсь, они выберут время для ее чтения, даже если пропустят некоторые сугубо технические детали. Глава заканчивается кратким обсуждением одной из любимых идей Фейнмана, которая инициировала современную революцию в нанотехнологиях.

Введение

Для меня большая честь и удовольствие присутствовать здесь в качестве докладчика в память об ученом, которого я исключительно уважал и восхищался — профессора Нишины. Приехать в Японию и рассказывать о компьютерах — это все равно что читать проповедь Будде. Но я много размышлял о компьютерах —

и это единственное, о чем я мог думать, когда меня пригласили сделать доклад.

Первое, что я хотел бы сказать, — я не собирался говорить о компьютерах. Я хочу рассказать об их будущем. Однако наиболее важные разработки будущего составляют предмет, о котором я не буду говорить. Например, существует великое множество работ, посвященных разработке более интеллектуальных машин — машин, умеющих лучше взаимодействовать с людьми, так чтобы ввод и вывод данных осуществлялся с меньшими усилиями по сравнению с тем сложным программированием, которое мы имеем сегодня. Это часто называют искусственным интеллектом, но мне этот термин не нравится. Возможно, неинтеллектуальные машины могут работать даже лучше, чем интеллектуальные.

Другая проблема состоит в стандартизации языков программирования. Сегодня их существует слишком много, и мне кажется разумной идея просто выбрать один из них. (Я не решаюсь упомянуть, что в Японии должно существовать больше стандартных языков — поскольку у вас имеется четыре способа письма, я думаю, что попытки стандартизации чего-либо здесь, очевидно, приведут к еще большему числу стандартов, а не к меньшему!)

Другая интересная проблема будущего состоит в том, что лучше выполнять работу на автоматически отлаженных программах, но об этом я тоже не буду говорить. Отладка означает поиск ошибок в программе или в машине; но на редкость трудно отлаживать программы, когда они становятся все более сложными.

Еще одно направление усовершенствования — сделать машины трехмерными вместо построенных на чипах, расположенных на плоскости. Это должно быть сделано поэтапно, а не сразу — вы можете создать несколько слоев, а затем добавлять постепенно все большее их число. Другое важнейшее устройство — прибор, автоматически обнаруживающий дефектные элементы на чипе; тогда чип будет автоматически перезаписывать сам себя так, чтобы избежать дефектных элементов. В настоящее время, когда мы пытаемся делать большие чипы, в них часто образуются трещины или дефектные участки, и мы выбрасываем целиком весь чип. Если мы сможем использовать действующую часть чипа, эффективность станет намного выше. Я упоминал, что попытаюсь рассказать вам об известных мне реальных проблемах машин будущего. Однако то, о чем я хочу говорить, — простые, небольшие, технически и физически добротные вещи, которые можно в принципе сделать в соответствии с физическими законами. Иначе говоря, я хотел бы обсудить механизм, а не способ, которым мы используем машины.

Я буду рассказывать о некоторых технических возможностях для создания машин. Будут затронуты три темы. Одна — это машины с параллельной обработкой, представляющие устройства очень близкого будущего, почти настоящего, которые разрабатываются в настоящее время. Более отдаленное будущее — это вопрос о потреблении энергии машинами, который на первый взгляд кажется ограниченным, но в действительности это не так. И в заключение я буду говорить о размерах.

Всегда лучше иметь машины поменьше, и вопрос заключается в том, насколько малым может стать допустимый размер, чтобы в принципе машины согласовывались с законами природы? Я не буду обсуждать, какова и в чем состоит актуальность каждой из перечисленных проблем в будущем. Это зависит от экономических и социальных условий, и я не собираюсь ломать над ними голову.

Параллельные компьютеры

Первая тема касается параллельных компьютеров. Почти все современные компьютеры, обычные компьютеры, работают на компоновке или архитектуре, придуманной фон Нейманом [6] , в которой существуют очень большая память, где хранится вся информация, и одна центральная область, в которой проводятся простые вычисления.

Мы берем одно число из одного отдела памяти, а другое — из другого отдела памяти, посылаем их в центральное арифметическое устройство для их сложения, а затем отсылаем ответ обратно в некоторое место памяти. Существует, по сути, один центральный процессор, который работает очень-очень быстро и очень напряженно, в то время как память в целом не участвует в процессе и представляет быстрый картотечный ящик с файловой структурой, который очень редко используется. Совершенно очевидно, что чем больше процессоров работают одновременно, тем быстрее мы должны выполнять вычисления. Но здесь возникает затруднение: допустим, кому-то, работающему на одном процессоре, понадобится та же самая информация из памяти, что и другому, пользующемуся другим процессором, — и тогда все перепутывается. В связи со сказанным очень трудно разместить параллельно для работы много процессоров.

6

Джон фон Нейман (1903–1957) — венгерско-американский математик, его считают одним из отцов вычислительных машин. — Примеч. ред. иностр. издания.

Некоторые шаги в этом направлении были предприняты на так называемых векторных процессорах. Если иногда вам необходимо выполнить одинаковые действия на многих различных элементах, вы, возможно, выполняете их одновременно. В принципе можно написать правильные программы стандартным способом, и тогда интерпретирующая программа автоматически поймет, когда полезно использовать эту векторную возможность. Такая идея применяется в компьютерах американской фирмы «Cray» и в японских «суперкомпьютерах». Другой проект состоит в том, чтобы взять большое число эффективно работающих

относительно простых (но не слишком упрощенных) компьютеров и соединить их вместе в некоторую структуру. Тогда все они могут работать, составляя часть схемы. Каждый компьютер является совершенно независимым, причем они будут передавать информацию от одного к другому, когда один или другой в ней нуждается. Такого рода схема реализована, например, в Калтехе (Калифорнийском технологическом институте), в гиперкубе «Cosmic Cube», и представляет только одну из многочисленных возможностей. Сегодня многие конструируют такие машины. Другая возможность — распределить очень большое число очень малых центральных процессоров вокруг памяти. Каждый процессор общается только с малой частью памяти, и существует детально разработанная система взаимосвязей между ними. Примером такой машины является the Connection Machine (машина с переменной структурой связей с параллельными процессорами), созданная в MIT (Массачусетсом технологическом институте). Она имеет 64 000 процессоров и систему маршрутизации, в которой каждые 16 могут переговариваться с другими 16, и, таким образом, получается 4000 возможностей маршрутного соединения.

Многие научные задачи, такие, например, как прохождение волн через некоторые материалы, можно было бы очень легко решить, применив параллельное соединение процессоров. Дело в том, что происходящее в данной части пространства в некоторый момент времени может быть определено локально — нужно только знать давление и напряжение от соседних объемов. Ответ можно вычислить одновременно для каждого объема, и эти граничные условия соединяются с различными объемами. Вот почему такой тип модели работает для решения подобных задач. Если задача достаточно обширна, следует выполнить большой объем вычислений. Параллельное соединение компьютеров может значительно ускорить время решения задачи, и этот принцип применяется не только в решении научных задач.

Куда подевалось предубеждение двухлетней давности, будто параллельное программирование трудновыполнимо? Выходит, то, что было сложным и почти невыполнимым, вскоре станет обычной программой и продемонстрирует на примере этой программы эффективность параллельного соединения компьютеров. Принимая во внимание, что мы имеем возможность параллельных вычислений, нужно полностью переписать программы, по-новому переосмыслив, что происходит внутри машины. Невозможно эффективно использовать старые программы. Это колоссальное неудобство для большинства промышленных приложений, из-за этого идея может натолкнуться на значительное сопротивление. Но большие программы, как правило, дело ученых или специалистов — умных и способных программистов. Они любят свое дело и горят желанием начать все заново. Они готовы переписать программы, если это позволит сделать их более эффективными. Итак, следует перепрограммировать тяжелые, огромные программы новым способом, и когда все в конце концов придут к этому, появится все больше и больше новых программ и программисты научатся с ними работать.

Снижение энергетических потерь

Вторая тема, о которой я хочу рассказать, — это энергетические потери в компьютерах. Тот факт, что они должны охлаждаться, является очевидным ограничением для создания больших компьютеров — уже немало усилий потрачено для охлаждения такой машины. Я хотел бы объяснить, что это просто результат плохой разработки и не содержит ничего фундаментального. Внутри компьютера каждый бит информации контролируется проводом, находящимся под тем или иным напряжением. Это называется «один бит», и нам нужно менять напряжение на проводе от одного значения до другого, увеличивать или снимать с него заряд. Я приведу аналогию с водой: мы наполняем сосуд водой до определенного уровня или опустошаем его до другого уровня. Это только аналогия — если вам нравится более реалистическая задача с подачей электричества, вы можете придумать более точную электрическую схематику. То, что мы сделаем сейчас, есть аналог происходящего в случае с водой: наполним сосуд, наливая в него воду до верхнего края (Рис. 1),и будем понижать ее уровень, открыв нижний кран и позволив всей воде вытечь из сосуда. В обоих случаях существуют потери энергии из-за внезапного перепада уровня воды от высоты верхнего уровня, до которого она была налита, до нижнего уровня дна, и когда вы начинаете снова наливать воду — наоборот. В случае напряжения и заряда возникает та же самая ситуация.

Это аналогично тому, как объяснял мистер Беннет, управляя автомобилем, — он начинает двигаться при включении зажигания и останавливается при нажатии на тормоз. Каждый раз при включении зажигания и затем при нажатии на тормоз вы теряете мощность. Другой способ провести аналогию с автомобилем — обеспечение связи колес с маховиками. Когда автомобиль останавливается, скорость маховика увеличивается; таким образом, сохраняя энергию, связь может заработать, и автомобиль опять начнет двигаться. Аналог с водой будет следующим: пусть у вас есть U-образная трубка с краном в центре на ее дне, соединяющая два рукава U-образной трубки (Рис. 2).Мы начинаем заполнять ее доверху справа, причем левая часть остается пустой, кран перекрыт. Если теперь открыть кран, вода будет перетекать в другую часть трубки, мы снова своевременно перекроем кран, вода сохранится в левой стороне. Теперь мы хотим двигаться в другую сторону — снова откроем кран, и вода потечет обратно, мы ее там опять сохраним. Но налицо некоторые потери, вода уже не поднялась так же высоко, как прежде, и нам надо добавить немного воды, чтобы скорректировать потерю — потеря энергии много меньше, чем в методе прямого заполнения. Эта хитрость использует инерцию воды, аналог этого для электричества — индуктивность. Однако на современных кремниевых транзисторах очень трудно скомпенсировать индуктивность на чипах. Поэтому эта методика не слишком удобна при существующей технологии.

Поделиться с друзьями: