Чтение онлайн

ЖАНРЫ

Хорошая стратегия, плохая стратегия. В чем отличие и почему это важно
Шрифт:

В свое время соучредитель Intel Гордон Мур прославился «законом», предсказывавшим, какими темпами будет расти скорость и стоимость производства интегральных схем. Менее известно другое его важнейшее наблюдение: затраты на разработку заказных чипов быстро начали превышать расходы на их изготовление и растут совершенно неприемлемыми темпами. В частности, Мур писал: «К кризису производителей полупроводниковых компонентов привели два события… изобретение калькулятора (микропроцессора) и появление полупроводниковых запоминающих устройств». С его точки зрения, главная прелесть этих устройств состоит в том, что, несмотря на их сложность, их можно продавать очень большими партиями.

Как-то раз я напомнил о словах Мура по поводу увеличения затрат на создание все более сложных узкоспециализированных чипов в беседе с группой управляющих из Qualcomm, компании

из Сан-Диего, выпускающей чипы для сотовых телефонов. В ответ один из присутствующих озадаченно спросил: «А разве разработка программного обеспечения обходится менее дорого? И разве программисты стоят дешевле, чем инженеры – разработчики аппаратных средств?»

Хорошие вопросы. Никто не смог ответить на них сразу, и я решил конкретизировать их с помощью примера из собственного опыта. Компания Rolls-Royce, желая повысить эффективность реактивных двигателей, решила создать сложный блок контроля над уровнем топлива. Это можно было сделать двумя способами: либо разработать заказное оборудование с конкретными характеристиками, либо воспользоваться универсальным микропроцессором и запрограммировать его с применением специального программного обеспечения. В любом случае ей пришлось бы выполнить немалый объем инженерно-конструкторских работ всего лишь для нескольких тысяч блоков. Почему Rolls-Royce предпочла софт?

Как почти всегда бывает, мой излюбленный способ переформулировки общего вопроса в конкретный сработал. Мы довольно быстро нашли ответ, который до сих пор выдерживает критику многих экспертных групп. Дело в том, что услуги хороших разработчиков аппаратных средств и программистов обходятся одинаково дорого. Главная разница в затратах при реализации этих двух типов проектов обусловлена расходами на создание прототипа и его новых версий, и особенно на исправление ошибок. Любая разработка неизменно предполагает определенное количество проб и ошибок, но при работе над аппаратными средствами на их исправление расходуется значительно больше ресурсов, чем при написании программ. Если новое «железо» не функционирует как требуется, это зачастую означает не один месяц дорогостоящих работ, связанных с изменением конструкции. А если дает сбой новое программное обеспечение, его автор исправляет проблему, вводя в файл другие команды, выполняет перекомпиляцию программы и через пару дней, а то и спустя несколько минут, опять проводит тестирование. Кроме того, программное обеспечение можно без особого труда исправлять, совершенствовать и модернизировать даже после того, как оно отправлено заказчику.

Таким образом, главное преимущество софта обусловлено быстротой цикла его создания – процесса перехода от концепции к прототипу и дальнейшего периода обнаружения и исправления ошибок. Если инженеры-разработчики никогда бы не совершали ошибок, затраты на создание сложного аппаратного средства и сложной компьютерной программы были бы вполне сопоставимыми. Но, поскольку людям свойственно ошибаться, наиболее предпочтительной стала среда разработки программного обеспечения (если только для этого не требуются новые быстродействующие аппаратные средства).

Причины деконструкции компьютерной отрасли

В том же 1996 году, вскоре после моей беседы с Жаном-Бернаром Леви в Париже, председатель совета директоров Intel Энди Гроув опубликовал свою провидческую книгу «Выживают только параноики» [20] . Опираясь на огромный опыт в области бизнеса и технологий, автор весьма убедительно рассказал в ней о «точках перегиба», способных в корне изменять и разрушать целые отрасли промышленности. В частности, Гроув описал точки, превратившие компьютерную индустрию из вертикальной структуры в горизонтальную.

20

Гроув Э. Выживают только параноики. Как использовать кризисные периоды, с которыми сталкивается любая компания. – М.: Альпина Паблишер, 2011.

В прежней вертикальной структуре каждый производитель компьютерной техники сам выпускал процессоры, память, жесткие диски, клавиатуры и мониторы и сам разрабатывал базовое и прикладное программное обеспечение. Покупатель подписывал с производителем контракт и приобретал все только у него. Нельзя было установить дисковод HP на компьютер DEC. А в новой горизонтальной структуре, напротив, каждый из этих видов деятельности стал отдельной

самостоятельной отраслью. Intel производила процессоры, другие компании – память, третьи – жесткие диски; Microsoft предлагала системное программное обеспечение. То есть компьютеры собирались из разных компонентов, выпускаемых конкурирующими производителями.

В связи с этим Гроув сделал абсолютно четкий и правильный вывод, что «изменились основы не только компьютерной отрасли, но и конкуренции»2. Но мне как стратегу хотелось копнуть в этом вопросе глубже. Какова основополагающая причина деконструкции компьютерной индустрии, почему ее структура стала горизонтальной? Энди Гроув пишет: «Даже сейчас, когда прошло много времени, я не могу четко сказать, где именно находится точка перегиба, в корне изменившая компьютерную отрасль. Может быть, в начале 1980-х, когда появились первые персональные компьютеры? А может, во второй половине этого десятилетия, когда, словно грибы после дождя, стали распространяться сети, основанные на компьютерных технологиях? Трудно сказать»3.

Мне долго не давала покоя исходная причина деконструкции компьютерной отрасли. Но приблизительно через год в голове словно что-то щелкнуло. Это случилось, когда я интервьюировал технических управляющих своей компании-клиента, и один из них рассказал, что раньше работал системным инженером в IBM. Он был вынужден оттуда уйти, поскольку современная компьютерная отрасль все меньше нуждалась в специалистах этого профиля. Я, конечно, тут же спросил:

– А почему?

– Да потому что сейчас отдельные компоненты сами по себе умные.

И меня снова озарило.

Точка перегиба Энди Гроува возникла по вине оригинального продукта Intel – микропроцессора. Расчленение компьютерной индустрии на отдельные модули произошло в момент, когда каждый основной компонент компьютера начал включать в себя собственный микропроцессор – стал «умным», как выразился мой собеседник.

Во многих традиционных компьютерах и первых ПК почти все делал центральный процессор (ЦП) – сердце машины. Следя за нажатиями на клавиши, он считывал информацию с клавиатуры. Распознав нажатие, анализировал строку и столбец клавиши и определял букву или цифру, по которой щелкнул пользователь. Чтобы считывать данные с накопителя на магнитной ленте, ЦП постоянно контролировал скорость и натяжение ее катушек, останавливая и запуская привод по мере интерпретации поступающих данных и сохраняя их в памяти. При распечатке данных на лепестковом принтере ЦП управлял вращением шестеренки и отмерял тайминг каждого удара печатающего молоточка. Иногда для управления этими периферийными устройствами разработчики создавали специальные мини-ЦП, но их интеграция оставалась сложной и не поддающейся стандартизации, выполнение этой задачи само по себе требовало огромных затрат времени и усилий специалистов.

Все изменилось с появлением дешевых микропроцессоров. В современную клавиатуру встроен небольшой чип. Он распознает каждый удар по клавише и отправляет компьютеру простое стандартизированное сообщение вроде: «Нажата буква Х». Жесткий диск сегодня тоже настолько «умен», что центральному процессору не нужно знать, как он работает. Он просто посылает на него сообщение, например «Сектор 2032», и тот мгновенно возвращает данные в нужный сектор. Отдельные микропроцессоры управляют работой экранов, памяти, видеоадаптера, накопителей на магнитной ленте, USB-портов, модемов, игровых контроллеров, стримеров, резервных источников питания, принтеров, сканеров, контроллеров мыши – то есть практически всем, из чего состоит современный компьютер.

Появление «умных» компонентов, функционирующих в составе операционной системы, созданной по фактическому стандарту отрасли, сделало задачу интеграции систем до смешного простой. Навыки в этой области, которые IBM и DEC развивали и накапливали десятилетиями, стали не нужны. Поэтому собеседник и потерял работу.

Компьютерная отрасль – без «склеивающего» ее заказного системного проектирования – деконструировалась сама собой. Теперь не требовалось специально разрабатывать модули, обеспечивая их совместимость с остальными частями системы. Чтобы создать нормально функционирующее устройство, клиентам необязательно было закупать комплектующие у одного поставщика. Начали появляться специализированные компании, которые производили и продавали исключительно память. Другие выпускали и продавали только жесткие диски, клавиатуры или дисплеи. Третьи – видеокарты, игровые контроллеры и прочие устройства.

Поделиться с друзьями: