Коммодитизация компьютерной техники.
Сегодня можно сказать, что коммодитизация современной компьютерной техники началась на периферии так называемой инфраструктуры предприятий, то есть с использования персональных компьютеров и соответствующего оборудования сотрудниками офисов и другими работниками, не связанными с техникой. С периферии она постепенно перемещалась в центр инфраструктуры предприятий. Процесс коммодити-зации четко отслеживается в постоянной экспансии Dell Computer - видимо, самой успешной в мире компании, производящей «железо».
Компания Dell была и остается поставщиком массовых товаров. Несомненно, гениальность Майкла Делла (Michael Dell), основателя и руководителя корпорации, заключалась в разумной и непоколебимой вере в коммодитиза цию ИТ. Он говорил: «В долговременной перспективе все технологии нацелены на стандартизацию, позволяющую снижать издержки»[34]. Первой коммерческой целью Делла были массовые продажи персональных компьютеров. Поскольку компании покупали ПК в больших количествах, последние быстро стали высокостандартизированным товаром. Тому было несколько причин. Во-первых, ПК должны были быть простыми в эксплуатации, потому что предназначались для непрофессиональных пользователей. Ни одна компания не могла позволить себе обучать каждого нового сотрудника работе на компьютере уникальной конфигурации. Во-вторых, для внутри- и межсетевого обмена файлами и сообщениями ПК должны были быть совместимыми. В-третьих, росла необходимость использования единой операционной системы (Microsoft Windows), единого процессора (Intel или Intel-совместимого) и единого набора базовых программ (в первую очередь Microsoft Office). В-четвертых, ПК должны были быть достаточно дешевыми для того, чтобы стоять на столе у каждого сотрудника.
Майкл Делл одним из первых понял, что бизнес-ПК должны стать неотличимыми друг от друга «ящиками». Он построил работу своей компании таким образом, чтобы производить и продавать ПК быстро и недорого. Он использовал типовые комплектующие, свел инвестиции в НИОКР и оборотный капитал к минимуму и начал продавать компьютеры напрямую пользователям. Недорогие функциональные компьютеры Dell оказались привлекательными для корпоративных потребителей. В 1990-е годы компания стала ведущим поставщиком ПК компаниям, и все остальные крупные производители бизнес-ПК как массового товара должны были конкурировать с Dell на его условиях. В 2001 году Майкл Капеллас (Michael Capellas), руководитель компании Compaq Computer, которая ранее была лидером отрасли, выразился по этому поводу весьма определенно: «Dell превратил этот бизнес в ценовое состязание»[35]. Вскоре компания Compaq прекратила свое существование, слившись с Hewlett-Packard.
В начале 1990-х другие элементы аппаратной инфраструктуры предприятий, в частности серверы, системы хранения данных и сетевое оборудование, «сопротивлялись» стандартизации. Поскольку эта техника «оставалась за кадром» (с ней работали только специалисты, и она выполняла узкоспециализированные функции), потребность в единых стандартах была невысока. Производители могли по-прежнему использовать собственные чипы и операционные системы (operating software), подключая только своих клиентов и блокируя доступ конкурентам. Поскольку корпоративные затраты на такое оборудование постоянно увеличивались, через несколько лет начал расти спрос на недорогие решения, то есть на такие системы, приобретение, обновление и поддержка которых обходились дешевле. В связи с этим росла необходимость стандартизации. Она стала возможна благодаря увеличению скорости и совершенствованию микрочипов. Создатели дешевых чипов для массового потребления быстро ликвидировали преимущества фирменных технологий таких гигантов, как IBM, Sun и Hewlett-Packard. Быстрое развитие интернета в конце 1990-х годов еще более усилило тенденцию к созданию стандартизированного, модульного, легко объединяемого в сеть оборудования.
Первыми на этот путь встали серверы и рабочие станции, то есть компьютеры, занимающие в иерархии аппаратных средств следующую ступень после ПК. В начале 1990-х эти мощные специализированные машины производились ограниченным количеством поставщиков, каждый из которых предлагал собственную уникальную технологию. Например, компания Sun производила серверы на базе своего процессора Sparc и снабжала эти серверы пакетами прикладных программ Solaris, базирующихся на операционной системе Unix. Однако с ростом производительности эти некогда мощные машины все меньше отличались от ПК младшего поколения.
Вскоре стандартные серверы уже работали на базе процессоров Intel и использовали разновидность операционной системы Windows. Неудивительно, что и здесь компания Dell быстро вышла на рынок и вскоре стала крупнейшим поставщиком серверов на базе Windows. И снова экономичные системные блоки для массового потребления оказались наиболее привлекательными для пользователей серверов. Например, когда нефтяной гигант Amerada Hess заменил компьютеры IBM на комплекс рабочих станций Dell, его ежегодные затраты на лизинг и эксплуатацию оборудования сократились с $1,5 млн до $300 тыс.[36].
Сегодня, когда скорость процессоров продолжает расти, а операционная система Linux с открытым исходным кодом (open-source) завоевывает все более прочные позиции в сегменте серверов, тенденция к переходу на типовое оборудование усиливается. Эта тенденция четко проявляется на примере оператора ведущей поисковой системы интернета Google. Несмотря на то что каталогизация и поиск в миллиардах веб-страниц требует высочайшей производительности, компания разработала свое «железо» на основе готовых серийных комплектующих, старых процессоров и бесплатного программного обеспечения с открытым исходным кодом[37]. В 2002 году руководитель компании Google Эрик Шмидт (Eric Schmidt) буквально шокировал отрасль, заявив, что его компания не намерена спешить с покупкой новейшего микропроцессора Itanium, разработанного Intel и Hewlett-Packard. Как писала газета New York Times, по мнению Шмидта, «мощные центры обработки данных нового поколения будут создаваться на базе небольших и недорогих процессоров, как из деталей конструктора Lego, и все активнее вытеснять старые мейнфреймы и серверы 1980-1990-х годов»[38].
Примеру Google последовал крупнейший интернет-магазин Amazon.com. Всего за год, с 2000-го по 2001-й, компания сократила свои расходы на ИТ почти на 25%. Это удалось сделать прежде всего благодаря замене серверов с проприетарными процессорами и операционными системами более дешевыми машинами на базе процессоров Intel под управлением ОС Linux[39]. По тому же пути пошел промышленный гигант General Electric. По словам директора по информатизации Гэри Рейнера (Gary Reiner), перевод многих корпоративных приложений на массовые компьютеры позволил компании снизить инвестиции в новые системы ни много ни мало на 40%[40].
Такая же долгосрочная тенденция, хотя и более медленная, наблюдается на двух других целевых рынках компании Dell - на рынке устройств для хранения информации и рынке сетевого оборудования. Таким крупным поставщикам накопителей данных, как компания ЕМС, до последнего времени удавалось сохранять проприетарные конфигурации техники и ПО. В 2001 году компания Dell, обеспокоенная отсутствием единых стандартов, заключила контракт на дистрибуцию и частично на производство оборудования компании ЕМС сроком на пять лет. Однако, как и в случае с серверами, на рынке устройств для хранения информации также начинается бум стандартизации. Пользователи и поставщики уже разрабатывают технические стандарты, позволяющие компаниям закупать устройства для хранения данных у разных поставщиков и объединять их в единые системы. В конце 2003 года для достижения большей функциональной совместимости своего оборудования лидеры отрасли - компании ЕМС и IBM - договорились о единых стандартах в области разработки программ хранения данных. Их конкуренты, производящие более дешевую технику, например японский электронный гигант Hitachi, увеличивают свою долю на рынке, предлагая типовую технику, работающую на программном обеспечении с открытым исходным кодом[41]. По мере усиления конкуренции и дальнейшего падения цен все больше компаний будут рассматривать устройства для накопления информации в качестве товара массового потребления.
Затем настанет очередь компьютерных сетей. Dell уже предлагает линию простых коммутаторов (switch), цены на которые в пять раз ниже, чем цены на продукцию конкурента - лидера отрасли компании Cisco. Высокопроизводительные системы переключения и маршрутизации по-прежнему защищены правом собственности и комплектуются сложными (и строго охраняемыми) процессорами и ПО. Но и в этой области наблюдаются все признаки грядущих перемен. Как утверждают авторы статьи, опубликованной в 2003 году в журнале Business 2.0, «как и в случае с системами хранения данных, не исключено, что ведущие производители сетевых устройств скоро потеряют свои особые позиции на рынке. Благодаря командам, которые Intel и Broadcom уже встраивают в сетевые чипы, любой производитель компьютерной техники легко сможет купить то, на что у него ушли бы годы исследований»[42]. По мере роста мощности ИТ вчерашние «чудесные машины» становятся дешевыми «ящиками».
Конечно, никто не может гарантировать Dell лидирующие позиции на всех названных рынках компьютерной техники. Все более острой становится конкуренция как с производителями специализированного оборудования, например с EMC, Hitachi и Cisco, так и с такими гигантами, как IBM, Microsoft и Hewlett-Packard. Все крупнейшие компании, работающие в области ИТ, будут упорно бороться против концентрации контроля над высокопроизводительной инфраструктурой в одних руках. Однако такая ожесточенная конкуренция лишь ускорит коммодитизацию. Независимо от того, победит или проиграет Dell в этой борьбе, сама борьба будет происходить по установленным ею правилам.
Чтобы понять, почему обострение конкуренции ведет к коммодитизации компьютерной техники, можно использовать понятие «эффекта перелета» (overshooting), подробно описанного Клэйтоном Кристенсеном (Clayton Christensen) в книге «Дилемма инноватора» (The Innovator's Dilemma). «Перелет» - это ситуация, в которой производительность технологического продукта превышает потребности большинства пользователей и тем самым стимулирует появление более дешевых аналогов. Кристенсен поясняет: «Развитие технологии зачастую опережает рост спроса основных потребителей. Поэтому техническое совершенствование продуктов, характеристики и функциональные возможности которых в наибольшей степени соответствуют сегодняшнему спросу на рынке, нередко приводит к тому, что они начинают опережать потребности завтрашнего массового рынка. Продукты же, которые сегодня серьезно отстают от будущих ожиданий массового потребителя, завтра могут оказаться вполне конкурентоспособными по производительности»[43].
«Эффект перелета» - это распространенное, возможно, даже общее явление в сфере компьютерных технологий, которые непрерывно совершенствуются. Подгоняемые необходимостью удовлетворять спрос самых требовательных потребителей и сохранять при этом высокую прибыль, поставщики технологий ведут жестокую конкурентную борьбу, стремясь сделать свою продукцию безупречной, и придают ей новые особенности и функции, чтобы сохранить лидерство на рынке. Однако каждое следующее поколение технологий демонстрирует «эффект перелета», превосходя потребности отдельных потребителей, которые нередко реагируют таким образом, что переходят на более дешевые базовые версии от других производителей.
В конечном итоге по мере развития технологии производительность самых дешевых образцов новой техники начинает отвечать потребностям большинства покупателей, и конкурентная борьба перемещается из области технических характеристик в область цен. «Эффект перелета» объясняет, почему Google может игнорировать новейший процессор Intel, компании Amerada Hess, Amazon и General Electric используют менее дорогие серверы, a Dell всегда удается «поживиться» на новых рынках, перемещая конкуренцию в область снижения цен. Это явление объясняет, почему Windows вытесняет специализированные операционные системы, a Linux в свою очередь вытесняет Windows. Многие производители компьютерной техники не сразу признают существование «эффекта перелета». Им хочется верить, что запросы потребителей и возможности их техники всегда шагают нога в ногу. Однако в отличие от производства компьютеров потребности потребителей не подчиняются закону Мура. Рано или поздно большинство из них начинают довольствоваться тем, что имеют. Потребителям просто не нужна более высокая мощность или новый усложненный набор функций. Их вполне устраивает массовый товар.
Когда эта тенденция придет к своему логическому завершению, для среднестатистического пользователя перестанут существовать индивидуальные компоненты физической инфраструктуры. Компании будут просто подключаться к общей инфраструктуре при помощи кабеля или антенны и автоматически получать доступ ко всем необходимым функциям. ИТ станут такими же простыми в использовании, как электричество. Собственно говоря, именно к этому сейчас и стремятся многие ИТ-компании. В так называемых сетевых вычислениях компьютеры, подключенные к сети, не просто обмениваются файлами или совместно используют разрозненные приложения. По сути, они сливаются в единую числовую машину. Все процессоры и резервы памяти используются совместно, и задачи отдельных пользователей в области обработки и хранения данных распределяются между ними наиболее эффективным образом. При сетевых вычислениях сеть по существу превращается в единый компьютер, как и обещал несколько лет назад известный рекламный лозунг компании Sun Microsystems, а использование компьютеров становится просто разновидностью коммунальных услуг[44].
Многим руководителям компаний, долгие годы боровшихся с капризной, несовместимой компьютерной техникой, подобная перспектива может показаться утопией. Действительно, чтобы масштабные сетевые вычисления стали реальностью, предстоит ликвидировать еще многие технические барьеры. Тем не менее их развитие уже началось. Более 2 млн человек предоставили свои ПК для почти фантастического проекта SETI, нацеленного на отслеживание радиосигналов из космоса в надежде обнаружить признаки разумной жизни. Терабайты информации, аккумулированной при помощи радиотелескопа в Аресибо (Пуэрто-Рико), через интернет передаются на компьютеры участников проекта и обрабатываются по мере появления свободных машинных циклов. Несколько коммерческих предприятий проводят эксперименты по созданию локальных сетей на базе собственных ПК и других компьютеров для более полного использования вычислительных мощностей.
Что действительно необходимо для более широкого распространения сетевых вычислений, так это программное обеспечение нового поколения, позволяющее координировать всю связанную между собой удаленную компьютерную технику, и простой интерфейс, скрывающий от пользователей сложную работу сети, подобно тому, как первый графический интерфейс Macintosh скрывал громоздкую работу первых ПК. Многие крупнейшие поставщики ИТ, включая Microsoft, IBM и Hewlett-Packard, лихорадочно работают над созданием необходимого программного обеспечения, надеясь оказаться в авангарде сетевых вычислений и в конечном счете получить от этого прибыль. Их успех в создании совершенной скоординированной сети будет означать наступление заключительного этапа коммодитизации компьютерной техники, на котором пользователи перестанут различать оборудование различных производителей. Физическая инфраструктура ИТ обретет окончательный вид и в основном станет невидимой.