Появление персонального компьютера привело к демократизации вычислений. Исчезла необходимость в корпоративных центрах обработки данных и ИТ-отделах, ПК превратился в универсальный бизнесинструмент. ПК также внес изменения в организацию вычислений. Персональные компьютеры, установленные на рабочих столах офисных сотрудников, вскоре были объединены в сеть, и это позволило им обмениваться файлами и совместно использовать принтеры. Прежние комнаты с мейнфреймами не исчезли. Они были преобразованы в новый вид центра обработки данных. В этих центрах находились системы хранения, которые содержали наиболее важные данные, а также мощные серверные компьютеры с программами для управления финансами и операциями компании. Отдельные сотрудники могли на своих ПК работать с такими программами, как Microsoft Word и Excel, а подключаться к программам и файлам на центральных серверах. Поскольку ПК выступал в качестве «клиента» общих серверов, такая система получила название «клиентсервер». Эта модель стала определяющей в эпоху ПК и по сей день остается доминирующей.
   Модель «клиент-сервер» оказалась противоположностью мейнфреймовых систем. Она сделала вычислительный процесс личным, но при этом крайне неэффективным. Корпоративные компьютерные системы и сети – цифровая система передачи мощности современной компании – усложнялись по мере расширения сферы их применения. Одной из основных причин этого усложнения было отсутствие стандартов в области вычислительного оборудования и программного обеспечения. Производители, как правило, продвигали собственные продукты, а они недостаточно хорошо сочетались с продуктами конкурентов. В результате корпоративные программы, как правило, создавались для работы в конкретной операционной системе, для конкретного микрочипа, конкретной базы данных и конкретного оборудования. В отличие от многоцелевых мейнфреймов, большинство серверных компьютеров предназначались для работы с одним приложением или одной базой данных. Всякий раз, когда компания покупала или создавала новое приложение, ей приходилось приобретать и устанавливать новый набор специализированных компьютеров. Каждый из этих компьютеров необходимо было настроить на обслуживание с пиковой нагрузкой, даже если эта пиковая нагрузка никогда не возникала.
   Распространение узкоспециализированных систем привело к чрезвычайно низким уровням использования вычислительных мощностей. Недавнее исследование шести корпоративных центров обработки данных показало, что в большей части серверов, количество которых достигало тысячи, задействовано менее четверти их вычислительной мощности. Согласно другим исследованиям, так же нерационально используются системы хранения данных: в среднем на 25–50 %. До наступления эры персональных компьютеров специалисты по обработке данных старались сохранять вычислительные ресурсы не только по экономическим, но и по этическим соображениям. «Тратить цикл центрального процессора или байт памяти было недопустимо, – вспоминает научный писатель Брайан Хейс. – Решать несложную задачу с помощью мощного компьютера считалось таким же безвкусным и неспортивным, как ловля форели с помощью динамита». Модель «клиент-сервер» шла вразрез с принципом экономии ресурсов. Вместо бережливости определяющей характеристикой бизнес-вычислений стало расточительство.
   За последнюю четверть века сложность и неэффективность модели «клиент-сервер» только возросли. Компании задействовали все больше приложений, поэтому им приходилось расширять свои центры обработки данных, устанавливать новые машины, перепрограммировать старые и нанимать все больше специалистов для управления ими. Если учесть еще и то, что компаниям приходилось покупать резервное оборудование на случай, если сервер или система хранения данных выйдут из строя, вы поймете, что бо́льшая часть триллионных инвестиций, сделанных компаниями в информационные технологии, пропала даром.
   Кроме этого, существуют и другие издержки. По мере расширения центров обработки данных, все более плотно укомплектованных компьютерами, резко растет потребление электроэнергии. Согласно исследованию, проведенному в декабре 2005 года Национальной лабораторией имени Лоуренса в Беркли[16], современный корпоративный центр обработки данных «может потреблять в 100 раз больше энергии на квадратный фут, чем обычное офисное здание». Исследователи обнаружили, что компания тратит свыше одного миллиона долларов в месяц на электричество, необходимое для работы одного большого центра обработки данных. И счета за электричество продолжают быстро расти с увеличением количества серверов и мощности компьютерных чипов. Луис Андре Баррозу, компьютерный инженер компании Google, делает вывод, что, если эффективность компьютеров существенно не возрастет, «в течение ближайших нескольких лет затраты на электроэнергию могут легко превысить затраты на аппаратное обеспечение, возможно, с большим отрывом».
   Непроизводительные расходы, присущие модели «клиент-сервер», обременительны для отдельных компаний. Однако в отраслях картина намного хуже. Бо́льшая часть программ и аппаратных средств, с которыми сегодня работают компании, имеется у их конкурентов. Компьютеры, системы хранения данных, сетевое оборудование и наиболее популярные приложения стали товарами массового потребления с точки зрения компаний, которые их покупают. Они не отличают одну компанию от другой. То же самое касается сотрудников ИТ-отделов. Большинство из них занимаются рутинным обслуживанием, выполняя такие же задачи, что и их коллеги в других компаниях. Существование десятков тысяч независимых центров обработки данных, использующих аналогичные аппаратные средства, программное обеспечение и виды работ, негативно влияет на экономику. Это привело к наращиванию чрезмерных ИТ-активов почти в каждом секторе промышленности и уменьшению выгоды от компьютерной автоматизации.
   Ведущие ИТ-поставщики стали самыми быстрорастущими и прибыльными компаниями в мире. Компания Билла Гейтса – идеальный тому пример. Почти каждая компания сегодня покупает копии операционной системы Microsoft Windows и офисного пакета приложений Microsoft Office для всех своих сотрудников, устанавливая программное обеспечение на каждом отдельном ПК и регулярно производя обновления. Большинство компаний также используют ОС Windows, по крайней мере на некоторых из своих серверов, и устанавливают другие дорогостоящие программы Microsoft в своих центрах обработки данных (например, Exchange для управления электронной почтой). За три десятилетия с момента своего основания годовые объемы продаж компании Microsoft выросли почти до 50 миллиардов долларов, годовая прибыль – до 12 миллиардов, а сумма наличных денежных средств – до 30 миллиардов долларов. И компания Microsoft не одинока. Многие другие производители программного обеспечения, вроде Oracle и SAP, поставщики серверов, например IBM и Hewlett-Packard, производители ПК типа Dell, а также сотни консалтинговых компаний извлекают выгоду из сложности современной отрасли бизнес-вычислений. Все они с готовностью играли роль поставщиков оружия в гонке вооружений, происходившей в сфере информационных технологий.
 
   Почему сфера вычислений развивалась таким, казалось бы, неправильным образом? Почему персонализация компьютеров сопровождалась усложнением и напрасными затратами? Причина довольно проста. Она сводится к двум законам. Первый и самый известный был сформулирован в 1965 году блестящим инженером Intel Гордоном Муром. Закон Мура гласит, что мощность микропроцессоров удваивается каждый год или два. Второй закон был озвучен в 1990-х годах Энди Гроувом, коллегой Мура. По закону Гроува, пропускная способность телекоммуникационных систем удваивается каждые сто лет. Закон Гроува скорее выражает его неприятие умирающей телефонной индустрии, чем констатирует технический факт, тем не менее он обнаруживает простую истину: на протяжении всей истории развития вычислительной техники вычислительная мощность растет намного быстрее, чем пропускная способность коммуникационных сетей. Это несоответствие означает, что компания может воспользоваться преимуществами передовых компьютеров только в том случае, если установит их в собственных офисах и объединит их в собственную локальную сеть. Как это было с электричеством в эпоху систем постоянного тока, нет никакого практического способа эффективной передачи вычислительной мощности на большие расстояния.
   Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.
   Однако все эти начинания в сфере коммунальных вычислений были либо обречены на провал, либо сильно ограничены из-за отсутствия достаточной пропускной способности. Даже в конце 1990-х годов, когда в отрасли телекоммуникаций началась модернизация сетей, пропускная способность по-прежнему не позволяла предоставлять услуги по обработке данных с той же скоростью и надежностью, которые обеспечивали компаниям их собственные машины. И поэтому компании продолжали запутываться в своих цифровых системах передачи мощности, смиряясь с их сложностью, неэффективностью и пустыми тратами как платой за автоматизацию своей деятельности.
   Однако теперь все меняется. В последние несколько лет сетевой барьер начал рушиться. Благодаря проложенным коммуникационными компаниями во время бума доткомов оптоволоконным кабелям, длины которых, по некоторым оценкам, достаточно, чтобы обмотать земной шар более 11 тысяч раз, пропускная способность интернета резко увеличилась и подешевела. Закон Гроува был аннулирован. И это меняет все, по крайней мере в сфере обработки данных. Теперь, когда данные можно передавать через интернет со скоростью света, пользователи могут получить доступ к полной мощности компьютеров независимо от своего местоположения. Неважно, где находится серверный компьютер, управляющий вашей программой: в центре обработки данных дальше по коридору или в другой части страны. Все машины теперь объединены и используются совместно – они превратились в единую машину. Как в 1993 году предсказал исполнительный директор компании Google Эрик Шмидт, бывший в то время техническим директором Sun Microsystems, «когда передача данных станет такой же быстрой, как процессор, компьютеры перестанут быть отдельными устройствами и превратятся в сеть».
   Оптоволоконный интернет для сферы обработки данных – то же, что сеть переменного тока для электроэнергетики: местоположение оборудования не имеет для пользователя никакого значения. Что еще важнее, интернет, приспособленный к любому типу компьютера и любой форме цифровой информации, играет роль роторного трансформатора Инсулла: он позволяет разрозненным и несовместимым ранее машинам работать в качестве единой системы. Он превращает какофонию в гармонию. Предоставляя универсальную среду для передачи данных, интернет стимулирует создание централизованных вычислительных станций, которые могут одновременно обслуживать тысячи или даже миллионы пользователей. То, чем раньше компании были вынуждены обеспечивать себя сами, теперь они могут приобрести в качестве платной услуги. Это означает, что они могут наконец избавиться от своих цифровых систем передачи мощности.
   Системе коммунальных вычислений потребуется много лет, чтобы достичь зрелости. Как когда-то Эдисон и Инсулл, пионеры новой отрасли столкнутся с множеством проблем. Им предстоит найти оптимальный способ измерения и ценообразования на разные виды услуг. По мере роста спроса нужно будет сбалансировать нагрузку и управление коэффициентом неодновременности. Они станут сотрудничать с правительствами, чтобы создать эффективные режимы регулирования. Им необходимо будет достичь нового уровня безопасности, надежности и эффективности. А самая серьезная задача – это убедить крупные компании отказаться от своих систем и центров обработки данных, в которые они вложили так много денег. Однако все эти задачи будут решены, как и раньше. Экономические условия в сфере обработки данных изменились, а в настоящее время прогресс обусловливается именно новой экономикой. На смену эре персональных компьютеров приходит эпоха коммунальных вычислений.

Глава 4
Прощайте, мистер Гейтс

   «Мы находимся на пороге следующего кардинального изменения», – эти слова появились во внеочередном меморандуме, который Билл Гейтс отправил топ-менеджерам и инженерам Microsoft 30 октября 2005 года. Скромно озаглавленный документ «Программное обеспечение как интернет-услуга» на самом деле прозвучал как сигнал тревоги, который предупреждал компанию о том, что развитие сферы коммунальных вычислений угрожает ее традиционному бизнесу. Господство Microsoft над настольным ПК быстро таяло. Гейтс сообщил своим сотрудникам, что пользователи могут не устанавливать программное обеспечение на своих компьютерах: оно превращалось в коммунальную услугу, поставляемую через интернет. «На широкой и богатой почве интернета возникнет множество мгновенно доступных приложений, – писал он. – Услуги, доступные десяткам или сотням миллионов [пользователей], кардинально изменят характер и стоимость решений, поставляемых крупным компаниям и представителям малого бизнеса». Эта новая волна, заключил он, «будет крайне разрушительной».
   Нетрудно понять, почему был написан меморандум. Пока Гейтс составлял его в своем кабинете в штаб-квартире Microsoft в городе Редмонд, штат Вашингтон, его опасения по поводу будущего компании материализовались на расстоянии всего пары сотен километров в сонном городке под названием Даллес в северном штате Орегон. Ранее в том же году таинственная компания, известная под названием Design LLC, вступила в переговоры с местными чиновниками о покупке 30 акров земли, принадлежащей государственным органам. Этот участок, будучи частью большого промышленного парка, располагался вдоль берегов реки Колумбия. Надеясь сохранить переговоры в тайне, компания потребовала от должностных лиц города подписать соглашение о конфиденциальности. Однако вскоре детали тайной сделки стали известными. Компания Design LLC, как оказалось, была лишь ширмой. В покупке участка земли была заинтересована доминирующая компания интернет-поиска Google, которая быстро становилась самым опасным конкурентом Microsoft.
   В феврале 2005 года компания Google закрыла сделку, купив участок земли чуть менее чем за 2 миллиона долларов после того, как власти города согласились на предоставление налоговых льгот. Несколько сотен строителей и целый парк экскаваторов, самосвалов и бетономешалок приступили к работе по реализации плана под кодовым названием «Проект 2» (Project 2). Этот проект предусматривал то, что Эрик Шмидт позже назвал «массивными инвестициями». По мере выполнения работ масштабы объекта становились очевидными. Участок был занят двумя большими, размером с футбольное поле, складами без окон. Над ними возвышались четыре градирни, которые придавали комплексу зловещий вид. Статья в журнале International Herald Tribune описывала этот комплекс как «атомную электростанцию информационной эпохи».
   Это было весьма точное описание. Компания Google создавала огромную станцию обработки данных, судя по всему, крупнейшую и сложнейшую на планете. Предполагающая взаимодействие десятков или даже сотен тысяч компьютеров, она должна была стать вычислительным эквивалентом атомной электростанции, динамо-машиной невиданной мощности для обработки данных. Когда-нибудь мы будем вспоминать станцию Google в Даллесе как ранний и относительно примитивный пример центральной вычислительной станции, так же как сегодня воспринимаем электростанцию Инсулла на Фиск-стрит. Однако сегодня она представляет собой самый высокотехнологичный пример компании сферы коммунальных вычислений. И, как Гейтс, несомненно, понимал в октябре 2005 года, эта станция символизирует переворот, который изменит компьютерную индустрию и поставит будущее корпорации Microsoft под сомнение.
   К тому времени, как компания Google начала строительство станции, она уже создала десятки «серверных ферм» по всему миру. Всего они насчитывали полмиллиона компьютеров. Однако их потребность в вычислительных мощностях продолжала расти. Город Даллес, который одна из орегонских газет описала как «место, где можно остановиться, чтобы заправиться и перекусить гамбургером по дороге из Портленда в Пендлтон», оказался идеальным местом для создания самого крупного и мощного центра компании. Удаленность города позволяла обеспечить безопасность объекта и усложняла конкурентам Google задачу переманивания ее сотрудников. Что еще важнее, этот город предоставлял доступ к двум ресурсам, которые напрямую влияли на эффективность работы центра обработки данных: дешевой электроэнергии и большой пропускной способности. Компания Google обеспечивала свои компьютеры электроэнергией, вырабатываемой многочисленными гидроэлектростанциями, расположенными вдоль реки Колумбия, в частности соседней плотиной Даллес с генерирующей мощностью 1,8 гигаватта. Кроме того, компания могла уменьшить потребление электроэнергии, используя ледяную воду реки для охлаждения своих машин. Что касается пропускной способности, то город сделал солидные инвестиции в строительство крупной оптоволоконной сети, связанной с международным интернетузлом, расположенным неподалеку в Харбор Пуанте, Вашингтон. Эта сеть обеспечила компании Google интернет-соединение, необходимое для предоставления своих услуг пользователям по всему миру.
   Центры обработки данных компании Google разрабатывались лучшими умами в области компьютерных технологий. Подобно машине Эдисона, они работают как единая тонко настроенная система, которую легендарный разработчик компьютеров Дэнни Хиллис назвал «самым большим компьютером в мире», все компоненты которого спроектированы так, чтобы работать совместно. В каждом центре находится один или несколько «кластеров» серверных компьютеров. Серверы представляют собой чуть более крупные компьютеры, чем домашние ПК, собранные из дешевых типовых микропроцессоров и жестких дисков, которые компания Google покупает у производителей оптом. Вместо того чтобы быть жестко связанными друг с другом внутри корпуса, компоненты просто присоединяются к высоким металлическим стойкам, что облегчает процесс их замены в случае выхода из строя. Каждый компьютер получает электроэнергию через блок питания, созданный инженерами Google, который минимизирует потребление энергии. На машинах установлена версия бесплатной операционной системы Linux, оптимизированная программистами Google. Компания также владеет большей частью оптоволоконных кабелей, связывающих вместе ее центры, что позволяет ей точно контролировать поток данных между ними и общественным интернетом.
   Наиболее важный объединяющий элемент системы – это программное обеспечение, созданное компанией Google для координации работы всех серверов в кластере на одном уровне и всех кластеров во всех центрах на более высоком уровне. Несмотря на то что компания держит свою технологию в тайне, мы в общих чертах знаем, как работает ее программное обеспечение при выполнении поиска в интернете. База данных Google содержит копии практически всех интернет-страниц и постоянно обновляется специальным поисковым роботом-«пауком», который «ползает» по ссылкам Всемирной паутины и сканирует содержимое миллиардов страниц. Набор секретных алгоритмов анализирует все сайты для создания всеобъемлющего индекса, в котором каждой странице присваивается рейтинг, отражающий ее соответствие определенным ключевым словам. Затем индекс дублируется в каждом кластере. Когда пользователь вводит ключевое слово в поисковой системе Google, программа направляет запрос в один из кластеров, где он одновременно обрабатывается сотнями или тысячами серверов. Поскольку каждому серверу необходимо просто сравнить ключевое слово с небольшой частью всего индекса, которую Google называет «осколком индекса», такая «параллельная обработка» идет значительно быстрее, чем если бы один компьютер сравнивал ключевое слово со всем индексом. Программное обеспечение собирает и обобщает все ответы серверов, располагает найденные страницы в порядке значимости и отправляет список результатов на компьютер пользователя.
   Хотя, по словам инженеров Google, обработка типичного поискового запроса требует «десятков миллиардов циклов [микропроцессора]» и считывания «сотни мегабайт данных», весь процесс происходит в течение доли секунды. Координирующее программное обеспечение гарантирует, что вычислительная нагрузка сбалансирована между всеми кластерами и отдельными серверами. Она поддерживает быструю и эффективную работу системы. При поломке компьютера или одного из компонентов программа просто обходит его. Поскольку система состоит из тысяч полностью взаимозаменяемых компонентов, она не может выйти из строя.
   Ни одна корпоративная вычислительная система не может сравниться с системой Google по эффективности, скорости и гибкости. Один из аналитиков считает, что по сравнению с типичной компанией стоимость обработки данных для Google в десять раз меньше. Вот почему система Google заставляет Билла Гейтса и других руководителей компаний сферы информационных технологий так нервничать. Она обладает разрушительным потенциалом коммунальных вычислений. Если компании смогут использовать центральные станции, наподобие станций Google, чтобы решать все или большую часть своих задач по обработке данных, то они сократят расходы на собственные аппаратные средства и программное обеспечение. А все эти сэкономленные доллары пополнили бы казну Microsoft и других технологических гигантов. Эти поставщики не могут успокоить себя даже надеждой на то, что будут продавать свою продукцию новым компаниям коммунального обслуживания. В конце концов, Google создает собственные компьютеры и работает на бесплатном программном обеспечении с открытым исходным кодом. Эта компания практически не нуждается в старых поставщиках.
   Нарастив свои вычислительные мощности, компания Google смогла быстро предоставить новые сервисы, а также приобрести те, что были разработаны другими компаниями. Большинство из этих сервисов – от картографического инструмента Google Earth и видеохостинга YouTube до платформы Blogger – созданы в основном для потребителей. Однако компания Google вышла и на бизнес-рынок. Она запустила популярный пакет услуг Google Apps, непосредственно конкурирующий с одним из наиболее прибыльных продуктов компании Microsoft – пакетом Office. Google Apps включает текстовый редактор, электронные таблицы, электронную почту, календари, систему мгновенных сообщений, возможности для разработки сайта и хостинг. Все это стоит 50 долларов в год на одного сотрудника, а базовую версию с рекламой можно использовать бесплатно. Чтобы пользоваться программой, требуется дешевый ПК и браузер. Уже сейчас многие небольшие компании могут решать значительную часть своих повседневных задач с помощью программного обеспечения, работающего в центрах обработки данных Google. По мере роста компании (а в 2007 году она объявила о планах строительства новых центров в Северной Каролине, Южной Каролине, Оклахоме и Айове) в эту категорию будут попадать все больше компаний.
 
   Несмотря на то что на данный момент компания Google – крупнейшая компания в сфере коммунальных вычислений, это не единственный пионер в данной новой сфере бизнеса. Другие компании, предоставляющие программное обеспечение в качестве услуги, предлагают традиционные бизнес-программы (например, для управления финансами, продажами и маркетингом) через интернет. И уже понемногу завоевывают корпоративный рынок.
   Сегодняшний лидер в этой области – быстрорастущая компания из Сан-Франциско Salesforce.com. Ее основатель Марк Бениофф совсем не похож на Сэмюэла Инсулла. Дородный экстраверт с взъерошенными волосами и бородой, Бениофф получил прозвище «самого большого болтуна в Кремниевой долине», однако его история не слишком отличается от истории Инсулла. Он тринадцать лет проработал в крупной технологической компании Oracle, где обрел наставника в лице харизматичного СЕО Ларри Эллисона[17]. Программное обеспечение Oracle для работы с реляционными базами данных, как и операционная система Microsoft и бизнес-приложения, в 1980-х и 1990-х годах стало неотъемлемым компонентом систем «клиент-сервер», что способствовало выходу компании на лидирующие позиции и сделало Эллисона мультимиллиардером. Бениофф достиг в компании больших успехов и стал одним из ее топменеджеров.
   
Конец бесплатного ознакомительного фрагмента