Затем при помощи карандаша и бумаги писалась программа, а чистые карты относились в вычислительный центр. Карта вставлялась в перфокарточную машину, и с клавиатуры вводилась одна строка из нашей программы. В результате устройство пробивало соответствующие отверстия в карте. Такая процедура проводилась для каждой строки в программе. При наличии ошибки нужно было выбросить заполненную карту и начать все заново. Для создания сложной программы приходилось пробивать сотни карт.
   Далее стопки карт аккуратно переносили к устройству считывания с перфокарт, куда их затем устанавливали и с нетерпением ждали, когда компьютер обработает данные.
   Спустя какое-то время, а в некоторых случаях даже через несколько часов, в принт-центре выдавалась печатная версия результатов. Так как практически невозможно написать безупречную программу с первого (или даже со второго) раза, нужно было пройти через эту процедуру неоднократно до нахождения и исправления ошибок.
   Разумеется, принцип нашего взаимодействия с компьютерами сильно изменился. Выше мне пришлось включить описание перфокарт в интересах юных читателей, которые, вероятно, не знакомы с ними. А как насчет самого компьютера?
   В то время в Мичиганском университете использовался Amdahl 470/V8. Такая машина стоимостью приблизительно в 2 млн долл. наверняка занимала значительную площадь помещения.
   Для того чтобы сопоставить относительные скорости различных компьютеров, инженеры разработали единицу измерения, известную как миллион операций в секунду, или MIPS. Показатель MIPS компьютера немного схож с номинальной мощностью двигателя. Наряду с тем что каждый компьютер имеет свой уникальный дизайн, показатель MIPS позволяет нам проводить приблизительные сравнения.
   Если представить, что компьютерная программа в процессе работы подобна пианисту, играющему мелодию на фортепиано, то каждая команда соответствовала бы одному нажатию клавиши. Показатель ЭВМ Amdahl в Мичиганском университете составлял около семи MIPS[17]. Следовательно, можно представить себе, как наш пианист совершает 7 миллионов ударов по клавишам в секунду. Очевидно, такая скорость невероятно велика для пианиста и в то же время достаточно неплоха для компьютера.
   К тому времени как я окончил Мичиганский университет в 1985 г., многое кардинально изменилось. За год до этого компания Apple Computer выпустила Macintosh, который, как и его предшественник Apple Lisa, был первым коммерчески доступным персональным компьютером, имеющим графический интерфейс и мышь.
   Университет приобрел десятки таких компьютеров, и теперь вместо старых ЭВМ в процессе обучения студенты пользовались ими.
   Первая версия Macintosh работала со скоростью около 1 MIPS[18]. Другими словами, соотношение скорости Macintosh и ЭВМ от Amdahl было приблизительно 1:7, что казалось весьма впечатляющим. К тому же компактный размер Macintosh позволял размещать его на столе, в то время как громоздкий Amdahl стоимостью в 2 млн долл. занимал всю комнату.
   Теперь посмотрим, как все развивалось после моего окончания университета…
   • К 1988 г. процессор Intel 386DX работал со скоростью 8,5 MIPS. Этот микропроцессор использовали в первых персональных компьютерах фирмы IBM, которые могли поддерживать ранние версии Microsoft Windows. Таким образом, настольный компьютер теперь превышал скорость ЭВМ от Amdahl.
   • К 1992 г. Intel 486DX работал со скоростью около 54 MIPS, что почти в восемь раз больше скорости ЭВМ Amdahl. ПК на базе 486-го процессора были первыми компьютерами, обеспечившими подходящую платформу для Microsoft Windows. Windows 3.1, также представленный в 1992 г., имел огромный коммерческий успех для Microsoft.
   • К 1999 г. скорость Intel Pentium III оценили более чем в 1300 MIPS. Наш пианист теперь энергично перебирает пальцами, совершая более миллиарда нажатий клавиш в секунду. Это почти в 200 раз больше скорости древнего Amdahl.
   • В 2008 г. процессор Intel Core 2 Extreme производил до 59 000 MIPS. Это 59 000 000 нажатий клавиш фортепиано в секунду, или в 8000 раз быстрее раритетного и баснословно дорогого ЭВМ от Amdahl.
 
   За 24 года после окончания университета, бесспорно, произошли колоссальные изменения. И все-таки то, что интересует нас в большей степени, еще свершится в будущем.
   Из закона Мура известно, что компьютеры совершенствуются в геометрической прогрессии, прогрессии, работающей по принципу «богатые становятся еще богаче», где каждые два года мы удваиваем то, что у нас уже есть. В первой главе я приводил пример о возможности продажи сотовых телефонов Биллу Гейтсу и Уоррену Баффету. Давайте снова привлечем Билла и проведем эксперимент, который сможет дать представление об уровне ожидающего нас прогресса.
   Билл Гейтс уехал из Гарварда в Нью-Мексико в 1975 г. и вместе со своим партнером Полом Алленом основал Microsoft. По существу, эта дата является отправной точкой развития компьютерной индустрии. Поскольку Билл начинает работу в 1975 г., представим, что наш магический цент незаметно оказывается у него в кармане. Сосредоточившись на другом, Билл его не заметит. Будем удваивать цент каждые два года и посмотрим, что в итоге получит Билл Гейтс…
   • ПК IBM, использующий программное обеспечение MS-DOS компании Microsoft, представлен в августе 1981 г. Этот путь ведет Microsoft к успеху. На данный момент у Билла в кармане 8 центов.
   • В марте 1986 г. компания Microsoft становится достоянием общественности, и ее акции впервые продаются на фондовой бирже NASDAQ. У Билла на данный момент уже около 45 центов[19].
   • Windows 3.1 появляется в 1992 г. Microsoft начинает составлять конкуренцию Apple Macintosh. На то время у Билла в кармане около 3,6 долл.
   • Windows XP стартовал в 2001 г. Билл располагает приблизительно 82 долл.
 
   Заглянув в карман Билла в 2009 г., мы обнаружим там около 1300 долл. Конечно, оно и лучше, что он не возлагал надежд на наш волшебный цент.
   Примем во внимание все, чего добился Билл Гейтс за свою карьеру. Он превратил Microsoft в мировую лидирующую компанию по программному обеспечению, хотя в настоящее время отошел от дел компании, чтобы посвятить себя управлению благотворительным фондом.
   К тому же в рамках нашего эксперимента по измерению геометрического ускорения технологического процесса Билл располагает суммой, не достигающей даже 1500 долл. Тем не менее стоит отметить интенсивное ускорение в период 2001–2009 гг.: всего за восемь лет Билл заработал свыше 1200 долл. по сравнению с прибылью в 82 долл. за 26 лет до 2001 г.
   Из диаграмм, рассмотренных ранее, известно, что Билл в конечном итоге достигнет отметки в 1 млн долл. Что можно сказать о будущем?
   • В 2015 г. у Билла будет приблизительно 10,5 тыс. долл., что в 8 раз больше, чем в 2009 г.
   • В 2021 г. Билл заработает около 84 тыс. долл., что превышает сумму 2009 г. в 64 раза.
   • В 2025 г. Билл будет располагать почти 336 тыс. долл., а это в 258 раз больше относительно 2009 г.
   • В 2031 г. Билл станет мультимиллионером. В его распоряжении будет сумма, превышающая цифру 2009 г. в 2000 раз, а именно – 2,6 млн долл.
 
   Из этих цифр становится понятно, что, если технический прогресс в значительной степени не замедлит свои темпы, компьютеры станут гораздо мощнее к 2031 г., а это почти 60 лет до нашей контрольной даты – 2089 г.
   Что бы имел Билл в 2089 г.? 1,4 квдрлн долл. Это в триллион раз больше суммы в 1300 долл. в 2009 г.!
   Эти цифры дают нам представление о невероятной степени технологического ускорения, прогнозируемого в ближайшие годы и десятилетия. Футуролог и изобретатель Рэй Курцвейл[20] пишет: «Экспоненциальный [или геометрический] рост обманчив. Он по своей сути таков, что, как только достигнута точка перегиба, идет взрывоопасный рост[21]».
   Какова уверенность в том, что закона Мура будут придерживаться в ближайшие годы и десятилетия? Есть основания считать, что в обозримом будущем он будет иметь силу. Рано или поздно современные технологии достигнут физического предела, поскольку транзисторы на компьютерных микросхемах будут уменьшаться, пока не приблизятся к размерам отдельных молекул или атомов. Однако к тому времени, возможно, появятся абсолютно новые технологии. Когда создавалась эта книга, Стэнфордский университет объявил, что ученым удалось закодировать буквы «S» и «U» в интерференционных моделях квантовых электроволн[22]. Другими словами, они смогли зашифровать цифровую информацию в частицах, меньших чем атомы. Такие достижения могут создать основу для информационных технологий будущего в области квантовых вычислений; это приведет компьютерную инженерию в сферу отдельных атомов и даже субатомных частиц.
   Предположим, такие прорывы не произойдут вовремя, а технология изготовления интегральных схем действительно дойдет до физического предела, тогда очень вероятно, что в центре внимания окажется не производство отдельных скоростных процессоров, а объединение большого количества недорогих процессоров массового потребления в параллельные архитектуры. Из следующего раздела мы узнаем, что этот процесс уже запущен, и если закон Мура в конечном счете исчерпает себя, то параллельная обработка данных вполне может стать приоритетной при изготовлении более мощных компьютеров.
   Даже если исторически достоверный закон Мура когда-нибудь окажется нерациональным, нет никаких причин полагать, что прогресс прекратится или даже станет носить линейный характер. Если бы темпы ускорения снизились, и в этом случае удвоение заняло бы четыре года (или даже больше), а не два, то все равно имела бы место экспоненциальная прогрессия, которая приведет к поразительным достижениям в области вычислительных возможностей[23].
   Давайте в очередной раз вернемся к нашему первоначальному предположению, что… до 2089 г. технология не продвинется настолько, что большая часть рабочих мест, занимаемых обычными людьми, будет автоматизирована. До этого момента экономика будет создавать рабочие места, исходя из способностей подавляющего большинства народонаселения.
   Сейчас выглядит правдоподобнее? Но подождите, это еще не все.

Всемирные вычислительные возможности

   Вероятно, вернувшись в 1975 г., было бы довольно просто пересчитать все компьютеры в мире. Первым делом мы бы обнаружили их в правительственных учреждениях, университетах и крупных корпорациях. Такой производитель, как IBM, вероятно, предоставил бы нам список всех мест, где были установлены компьютеры. В предыдущей главе мы говорили о том, как увеличилась мощность и скорость компьютеров. Если бы мы рассчитали геометрический темп роста и просто применили его к компьютерной технике 1975 г., мы бы столкнулись с невероятным ростом вычислительных мощностей. Но конечно, все мы знаем, что на деле все происходит иначе.
   Количество компьютеров во всем мире также растет невероятными темпами. По некоторым подсчетам, в настоящее время используется около миллиарда персональных компьютеров. Но это еще не конец. Компьютеры в виде встроенных микропроцессоров можно обнаружить в телефонах, mp3-плеерах, автомобильных двигателях, электроприборах и во множестве других устройств. Компьютеры повсюду.
   На самом деле можно предположить, что одновременно и мощность, и количество компьютеров в мире растут в геометрической прогрессии или, по крайней мере, схожими темпами. Очевидно, что такой рост способности манипулировать информацией находится за пределами понимания. Если представить себе количество устаревших устройств, оказавшихся ненужными с момента появления ПК, легко понять, что сегодня вся вычислительная техника, находящаяся на свалке, намного превышает количество существовавших в мире вычислительных устройств в 1975 г.
   Кажется невероятным, что такой поразительный прорыв в возможности вычислять и обрабатывать информацию мог произойти, не оставив глубокого отпечатка на общих технологиях, экономике и обществе в целом. Однако в действительности во многих сферах изменения произошли не так быстро, как можно было ожидать.
   Сегодня автомобили и самолеты оснащены встроенными компьютерами, но их общий внешний вид и принцип работы в большинстве случаев остается на уровне 1975 г.
   NASA справилось с основными задачами программы «Аполлон» и осуществило высадку на Луну, не обладая современной компьютерной техникой. Даже разработка космического челнока происходила в период выпуска первых ПК.
   Наряду с этим экономисты говорят о таком понятии, как парадокс производительности, который гласит, что, по крайней мере, до недавнего времени в экономике не наблюдалось повышения производительности, которое ожидалось от внедрения на рабочих местах большого количества новых компьютеров.
   Оказалось, что на сегодняшний день компьютерная революция обратила свою основную силу на себя же, отразившись в первую очередь на информационной и коммуникационной сферах[24].
   У меня складывается такое ощущение, что этот поразительный рост вычислительных мощностей представляет собой скрытый ресурс, который может внезапно проявиться новым и неожиданным способом. В будущем многие традиционные технологии и практически все сферы нашей жизни изменятся (возможно, очень быстро) так, как это невозможно предугадать. Для примера того, чего стоит ждать, давайте рассмотрим две новации, которые уже появились: как минимум одна из них сегодня носит положительный характер, а вторая, несомненно, отрицательный.

Распределенные и облачные вычисления

   Распределенные вычисления – это быстро развивающаяся сфера, которая связана с использованием мощности не только одного персонального компьютера, но и большого количества таких устройств. Суть заключается в объединении различных компьютеров с помощью специального программного обеспечения. Благодаря этому сложную вычислительную задачу можно разделить на части и распределить между сотнями или тысячами компьютеров так, чтобы они все могли работать над ее выполнением одновременно. Распределенные вычисления способны перевести вычислительные возможности на небывалый уровень для решения сложных задач в сфере науки и инженерии.
   Один из первых и самых известных случаев применения распределенных вычислений был зафиксирован в проекте «Геном человека». Этот международный проект стартовал в 1990 г. и был завершен в 2003 г. – на два года раньше запланированного срока. Главной целью проекта было определение последовательности всей молекулы ДНК человека и идентификация примерно 25 000 индивидуальных генов, которые составляют наш генетический код. Процесс расшифровки молекулы ДНК и идентификации каждого гена требует огромного количества вычислительных ресурсов, и распределенные вычисления сыграли в этом деле существенную роль.
   Генетическая информация, полученная в ходе этого проекта, хранится в базах данных, и доступ к ней в интернете имеется у исследователей и ученых. В результате был получен фантастический источник знаний, который до сих пор анализируется учеными и гарантированно приведет к бесчисленным успехам в сферах генетики, биоинженерии и медицины в будущем.
   Особый интерес в сфере распределенных вычислений представляет идея о том, что свободные мощности практически каждого компьютера, подключенного к интернет-сети, можно объединить в общую сеть и привлекать для решения сложных задач. Большинство компьютеров, если их оставить включенными, на протяжении длительного времени не делают ничего, особенно по ночам. Идея объединить их вместе для своеобразного пожертвования свободной мощности становится популярной в различных областях.
   Проект Стэнфордского университета под названием Folding@home направлен на решение сложной задачи в специализированной области биохимии, известной как «свертывание молекул белка». Успешные исследования в этой области помогут в будущем справиться с раком и такими заболеваниями, как болезнь Хантингтона или Паркинсона. Еще одним крупным пользователем данной системы является Открытая программная платформа Беркли для распределенных вычислений (BOINC). Это специальное программное обеспечение, разработанное в Калифорнийском университете в Беркли, позволяет участникам делиться свободной мощностью своего компьютера для осуществления разнообразных научных проектов, в том числе SETI («Поиск внеземного разума»), прогнозирования климата Земли, исследования онкологических заболеваний, астрофизики и многих других. Программу для участия в этих проектах можно скачать в интернете[25].
   В будущем можно предположить, что распределенные вычисления будут иметь невероятное значение. Более того, они уже сформировали явление, которое программисты называют облачным вычислением. По существу, это приведет к новой структуре для использования мощности огромного числа компьютеров в качестве необходимой базы: вычислительные возможности наряду со специальными приложениями будут распространяться подобно тому, как электростанции распределяют электроэнергию. Тенденция использования распределенных и облачных вычислений открывает невероятные возможности для внедрения новых колоссальных вычислительных мощностей в сферах, которые, несомненно, дадут положительные результаты в развитии таких областей, как наука и медицина. Однако следующий пример гораздо менее безобидный.

Крах рынка

   Широко известно, что «субстандартный» крах рынка в 2007 г. был вызван тем, что заемщики с не самым лучшим рейтингом кредитоспособности перестали выполнять обязанности по своим ипотечным кредитам. Банки и ипотечные компании давали эти ссуды в некоторых случаях из-за простых ошибок в расчетах возможных рисков, а иногда – ввиду явного мошенничества. Учитывая ожидания от мыльного пузыря на рынке недвижимости, многие кредиторы могли занять довольно жесткую позицию, и даже если заемщик не мог произвести оплату, кредитор мог минимизировать свои риски путем увеличения суммы взыскания на недвижимость.
   Как все это может быть связано с компьютерами? Что ж, если бы это была вся история, то субстандартный кризис был бы довольно сильным, однако не вышел бы за пределы США. Он определенно не затронул бы весь мир и не привел бы к мировому финансовому кризису, который наступил в 2008 г.
   Чтобы объяснить причины всемирного распространения кризиса, необходимо вернуться в 1973 г. Тогда была опубликована научная статья, в которой раскрывалась математическая формула «Модель ценообразования опционов Блэка – Шоулза». Эта формула впервые позволила рассчитать примерную стоимость фондовых опционов, которые представляют собой право покупки или продажи акции в любой момент в будущем по заранее установленной цене. Был период, когда фондовые опционы продавались на рынке, но никто не знал, как посчитать их точную стоимость.
   В последующие годы, а особенно в период 1980-х годов, огромному количеству бывших физиков и математиков начали поступать предложения на более высокооплачиваемые должности на Уолл-стрит. Этих ребят (действительно, это были только мужчины) часто называли квантами[26].
   Кванты начали пользоваться формулой Блэка – Шоулза и расширили область ее применения. На основании своих формул они разработали компьютерные программы и постепенно начали создавать новые виды производных финансовых инструментов, основанных на акциях, облигациях, индексах и многих других ценных бумагах или их сочетаниях[27].
   Поскольку их компьютеры становились все быстрей и быстрей, кванты могли делать все больше и больше. Они создали новый вид экзотических деривативов с необычными возможностями. Они могли увеличивать прибыль (и риск) ценной бумаги. Они могли трансформировать их таким образом, чтобы вы получали прибыль, даже если стоимость ценных бумаг падала. Они даже могли попытаться захватить прибыль, если инструмент повышался в стоимости, но исключить риск, если его стоимость падала. По крайней мере, они думали, что могут все это сделать.
   Поскольку внутри «мыльного пузыря» цены на недвижимость продолжали расти, субстандартные кредиты оформлялись в виде ценных бумаг, обеспеченных ипотекой, т. е. ими можно было торговать как облигациями. Это стало обычной практикой для ипотечных кредитов. Однако помимо этого были созданы новые виды инструментов, основанные на пакетных субстандартных кредитах. Самыми известными были «обеспеченные долговые обязательства», которые стремились вывести кредиты с наименьшим риском и трансформировать их в ценные бумаги, которые можно было бы продавать как инструменты высочайшего качества. Эти новые производные ценные бумаги, несущие минимальный риск, затем продавались банкам и финансовым учреждениям по всему миру.
   Когда субстандартные заемщики перестали выполнять обязательства, стоимость ценных бумаг, обеспеченных ипотечными кредитами, начала стремительно падать, а производные инструменты не сработали так, как ожидалось. Во многих случаях было очень сложно или невозможно оценить их стоимость. Более того, финансовые учреждения были вовлечены во многие другие сложные взаимоотношения, связанные с экзотическими деривативами, перед которыми стояла задача снижения различных рисков. Все это привело к неопределенности, которая вызвала еще большее падение стоимости. В результате в марте 2008 г. произошел крах банка Bear Stearns[28], за которым последовал мировой кризис.
   Смысл в том, что, конечно, невозможно было создать эти странные деривативы без доступа к мощным компьютерам. Если бы субстандартный кризис произошел несколькими годами ранее, он, несомненно, имел бы меньший масштаб. Кроме того, стоит отметить, что обвал рынка начался в 2007 г. Поскольку с того времени прошел уже не один год, мы на сегодняшний день знаем, что мощность компьютеров у сотрудников Уолл-стрит увеличилась вдвое, даже несмотря на продолжение кризиса.
   Конечно, экзотические деривативы – это не единственный пример отрицательного воздействия развивающихся компьютерных мощностей на финансовом рынке. 19 октября 1987 г. уровень цен на фондовой бирже за один день резко упал на 20 %. И нельзя назвать точное событие или другой фактор, повлиявший на столь неожиданное падение. Многие из тех, кто в то время занимался количественным анализом на Уолл-стрит, считают, что обвал мог быть спровоцирован компьютерной программой, которая автономно торговала акциями для обеспечения «портфельного страхования» крупных инвесторов.
   Пока пишется эта книга, в прессе появляются новые статьи на тему использования сверхбыстрых компьютеров на Уолл-стрит, которые позволяют совершать все сделки за доли секунды. Эта практика, известная как флеш-трейдинг, вскоре привлекла к себе внимание Комиссии по ценным бумагам и биржам и может привести к введению нового правового регулирования.
   Как показывают эти примеры, можно ожидать того, что темп роста и неустойчивость практически всех окружающих явлений так или иначе усиливается за счет невероятного увеличения наших вычислительных возможностей. Можно также предположить, что существенное увеличение вычислительных мощностей будет преимущественно направлено на автоматизацию рабочих мест.
   Далее в этой главе мы более подробно рассмотрим несколько специфических передовых технологий и их возможное влияние на рынок труда и экономику в целом. Но сначала давайте вернемся от машин к людям. Возможно ли людям каким-то образом «опередить» компьютеры, чтобы сохранить свои рабочие места?