Экспонента (страница 4)

Страница 4

Этот компьютер поставлялся с четырьмя мегабайтами памяти (или ОЗУ), то есть в четыре тысячи раз больше, чем у ZX81. Графика была потрясающей, хотя и не самой передовой. Я мог выводить на экран 32 768 оттенков цветов, пользуясь не самым современным графическим адаптером, который я подключил к машине. Эта палитра впечатляла, но была не совсем реалистичной: например, плохо отображались оттенки синего цвета. Если бы мой бюджет был на 50 фунтов стерлингов (около 85 долларов в то время) больше, я мог бы купить видеокарту с шестнадцатью миллионами оттенков цветов – так много, что человеческий глаз вряд ли различает некоторые из них.

Десятилетний путь от ZX81 до моего клона PC отражал период экспоненциальных технологических изменений. Процессор клона PC был в тысячи раз мощнее, чем у ZX81, а сам компьютер 1991 года – в миллионы раз эффективнее своего собрата из 1981 года. Эта трансформация стала результатом быстрого прогресса в развивающейся вычислительной индустрии, что выразилось в удвоении скорости компьютеров примерно каждые два года.

Чтобы понять эту трансформацию, необходимо изучить принцип работы компьютеров. В XIX веке английский математик и философ Джордж Буль попытался представить логику с помощью операций, включающих два состояния – ложь и истину. В принципе любую систему с двумя состояниями можно изобразить с помощью чего угодно. Например, вы можете механически представить ее двумя положениями рычага: вверх или вниз. Вы можете теоретически представить ее в виде конфеток M&M’s двух цветов – синих и красных (это, безусловно, вкусно, но непрактично). В итоге ученые решили, что лучше всего эту систему изображать цифрами 0 и 1 (такой двоичный разряд еще называют битом).

На заре вычислительной техники пользоваться Булевой логикой было сложно и громоздко. Именно поэтому компьютеру – а попросту любому устройству, которое могло выполнять операции, используя эту логику, – требовались десятки неуклюжих механических составляющих. Но в 1938 году произошел настоящий переворот: Клод Шеннон, тогда аспирант Массачусетского технологического института, понял, что можно построить электронные схемы с применением Булевой логики, а именно представить включенное состояние как 1, а выключенное – как 0. Это было революционное открытие, давшее толчок созданию компьютеров с использованием электронных компонентов. Первый программируемый электронный цифровой компьютер известен тем, что во время Второй мировой войны им пользовались шифровальщики, в том числе Алан Тьюринг[16].

Через два года после окончания войны ученые из Bell Labs разработали транзистор – полупроводниковое устройство, способное управлять электрическим током. Транзисторы могли выполнять функцию переключателей, и их можно было использовать для создания логических вентилей – элементов, способных выполнять элементарные логические вычисления. Если собрать несколько таких логических вентилей вместе, можно было получить работающее вычислительное устройство.

Звучит очень «технически», но смысл простой: новые транзисторы были меньше и надежнее, чем электронные лампы, которые использовались в первых компонентах электронных схем, и они проложили путь к созданию более сложных компьютеров. Созданный в декабре 1947 года первый транзистор был громоздким, собранным из множества деталей, в том числе скрепки для бумаг. Но он работал! С годами транзисторы превратились из такой импровизации в сложные стандартные устройства.

С конца 1940-х годов целью стало уменьшение размеров транзисторов. В 1960 году Роберт Нойс из компании Fairchild Semiconductor разработал первую в мире интегральную схему, которая объединила несколько транзисторов в одном устройстве. Эти транзисторы были крошечными, и по отдельности их невозможно было обработать ни вручную, ни машиной. Их изготавливали с помощью сложного процесса, немного схожего с химической фотографией, – фотолитографии. Специалисты направляли ультрафиолетовый свет через пленку с шаблоном – изображением схемы (похоже на детский трафарет). Схема отпечатывалась на кремниевой пластине; процесс можно было повторять на одной и той же пластине несколько раз, пока определенное количество транзисторов не накладывалось друг на друга. Каждая пластина могла содержать несколько идентичных копий схем, уложенных в сеть. Отрежьте одну копию – и получите кремниевый «чип».

Одним из первых силу этой технологии оценил Гордон Мур – исследователь, работавший на Нойса. Через пять лет после изобретения босса Мур понял, что физическая площадь интегральных схем ежегодно уменьшается примерно на 50 %, при этом количество транзисторов меньше не становится. Пленки (или «маски»), используемые в фотолитографии, становились все более детальными, транзисторы и соединения – все меньше, а сами компоненты – более замысловатыми. Это снижало стоимость и повышало производительность. Новые, более плотно упакованные чипы из меньших компонентов были быстрее старых.

Изучив такой прогресс, Мур в 1965 году выдвинул гипотезу. Он предположил, что эти разработки позволят удвоить эффективную скорость чипа при той же стоимости в течение определенного периода времени. В итоге он остановился на оценке, что каждые два года (в среднем от 18 до 24 месяцев) чипы, не меняясь в стоимости, будут становиться вдвое мощнее[17]. Мур стал соучредителем компании Intel, крупнейшего производителя чипов в XX веке. Но, вероятно, он более известен благодаря своей гипотезе, которая теперь называется законом Мура.

Этот закон легко трактовать неправильно: он не похож на законы физики. Законы физики, основанные на эмпирических наблюдениях, обладают предсказуемостью. Законы Ньютона не могут быть опровергнуты повседневным человеческим поведением. Ньютон утверждал, что сила равна массе, умноженной на ускорение, – и это почти всегда так[18]. Не имеет значения, что вы делаете или не делаете, какое сейчас время суток или какую прибыль вы намерены получить.

Напротив, закон Мура не предсказывает, это описательный закон. Как только Мур его изложил, компьютерная индустрия – от производителей чипов до обслуживающих их многочисленных поставщиков – начала рассматривать его как цель. Он стал социальным фактом – не чем-то присущим самой технологии, а тем, что существует благодаря пожеланиям компьютерной индустрии. Компании, поставляющие материалы, разработчики электроники, производители лазеров – все они хотели, чтобы закон Мура работал. И он работал[19].

Но это никак не ослабило закон. С тех пор как Мур его сформулировал, он был весьма удачным руководством по компьютерному прогрессу. В чипах действительно становилось больше транзисторов. И они следовали экспоненте, поначалу увеличиваясь в числе не очень заметно, но затем – почти непостижимо.

Посмотрим на следующие графики. На рис. 1 показан рост количества транзисторов на микрочип с 1971 по 2017 год. То, что этот график выглядит таким унылым до 2005 года, свидетельствует о мощности экспоненциального роста. На рис. 2 отражены те же данные, но по логарифмической шкале – шкале, где экспонента изображается прямой линией. Мы видим, что между 1971 и 2015 годами количество транзисторов на чипе увеличилось почти в десять миллионов раз.

Рис. 1. Число транзисторов на микропроцессор в млрд (линейная шкала)

Источник: Our World In Data[20]

Рис. 2. Число транзисторов на микропроцессор в млрд (логарифмическая шкала)

Источник: Our World In Data

Грандиозность этих изменений с трудом поддается осмыслению, но мы можем попытаться это сделать на примере стоимости одного транзистора. В 1958 году компания Fairchild Semiconductor продала компании IBM 100 транзисторов по 150 долларов за штуку[21]. К 1960-м годам цена упала примерно до 8 долларов за транзистор. К 1972 году (когда я родился) его средняя стоимость составляла 15 центов[22], а полупроводниковая промышленность выпускала от ста миллиардов до триллиона транзисторов в год. К 2014 году человечество производило 250 квинтиллионов (то есть миллиардов миллиардов) транзисторов в год – это во много раз больше, чем число звезд в нашей Галактике. Каждую секунду мировые «фабы» – специализированные фабрики по производству интегральных схем – выплевывали восемь триллионов транзисторов[23]. Стоимость одного транзистора упала до нескольких миллиардных долей доллара.

Почему это важно? Потому что в результате компьютеры стали совершенствоваться в невероятном темпе. Скорость, с которой компьютер может обрабатывать информацию, приблизительно пропорциональна количеству транзисторов в его процессоре. Чем больше в чипе становилось транзисторов, тем они становились быстрее. Намного быстрее. А сами чипы становились все дешевле.

Это необычайное падение цены и привело к компьютерной революции, случившейся, когда я был подростком, и по этой причине мой BBC Master был намного лучше моего ZX81. А потом из-за этого же вся наша жизнь снова изменилась. Когда вы берете в руки свой смартфон, вы держите устройство с несколькими чипами и миллиардами транзисторов. Компьютеры – когда-то бывшие сферой военных или научных исследований – стали обыденностью. Вспомните первый электронный компьютер, который Алан Тьюринг использовал для взлома кодов в Блетчли-парке в 1945 году. Десятилетие спустя в мире существовало всего 264 компьютера, месячная аренда которых стоила десятки тысяч долларов[24]. Прошло шесть десятилетий, и в мире насчитывается более пяти миллиардов компьютеров – в их число входят и смартфоны, наши карманные суперкомпьютеры. Наши кухонные шкафы, кладовки, чердаки завалены вычислительными устройствами, им всего по несколько лет, но они уже слишком устарели, и использовать их не имеет смысла.

Закон Мура – это самое известное выражение экспоненциального развития цифровых технологий в чистом виде. За последние полвека компьютеры неуклонно становились быстрее, что принесло с собой стремительные технологические, экономические и социальные преобразования. Цель этой главы – объяснить, как произошел этот сдвиг и почему в обозримом будущем он, похоже, будет продолжаться. Она также служит введением к определяющей силе нашего века – развитию экспоненциальных технологий.

* * *

Если выражаться простыми словами, то экспоненциальный рост – это возрастание величины со скоростью, пропорциональной самой этой величине. Линейный процесс – это то, что происходит, например, с нашим возрастом, который увеличивается ровно на один год с каждым оборотом Земли вокруг Солнца. Экспоненциальный процесс подобен сберегательному счету со сложными процентами. Сумма на счете увеличивается на фиксированный процент, скажем на 2 % ежегодно. Но 2 % в следующем году относятся не только к вашим первоначальным накоплениям, но и к накоплениям плюс проценты за прошлый год. Такой рост стартует медленно – это даже немного скучно. Но в какой-то момент кривая поворачивает вверх и взлетает. С этого момента сумма взлетает с головокружительной скоростью.

Многие природные процессы следуют экспоненциальной закономерности, например рост количества бактерий в чашке Петри или распространение вируса среди популяции. Однако одно из последних событий такого порядка – возникновение экспоненциальных технологий. Я называю экспоненциальной такую технологию, которая при приблизительно постоянных затратах обеспечивает увеличение более чем на 10 % в год в течение нескольких десятилетий. Конечно, ревнитель строгости в математике может сказать, что даже увеличение на 1 % в таких условиях тоже является экспоненциальным ростом. Строго говоря, так и есть. Но 1-процентного годового изменения мало для заметных подвижек. Чтобы удвоить число, увеличивающееся на 1 % в год, потребуется семьдесят лет, то есть почти вся жизнь.

[16] Алан Тьюринг (1912–1954) – английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Во время Второй мировой войны Тьюринг работал в Правительственной школе кодов и шифров, располагавшейся в Блетчли-парке, где была сосредоточена работа по взлому шифров и кодов нацистов. Прим. пер.
[17] G. E. Moore, “Cramming More Components onto Integrated Circuits,” Proceedings of the IEEE, 86(1), 1965, pp. 82–85. https://doi.org/10.1109/JPROC.1998.658762.
[18] Newton’s laws work at the scale of the everyday and in what is known as “inertial reference frames.” At the very small – the levels of atoms and smaller – we need to rely on quantum physics to describe what is going on. “Non-inertial reference frames,” such as those found when studying cosmology, require different approaches.
[19] Cyrus C. M. Mody, The Long Arm of Moore’s Law: Microelectronics and American Science, Inside Technology (Cambridge, MA: The MIT Press, 2017), pp. 5 and 125.
[20] Our World in Data – некоммерческий электронный проект, публикующий в открытом доступе данные о глобальных проблемах человечества, таких как болезни, голод, глобальное потепление, войны, катастрофы, социальное неравенство, бедность. Прим. пер.
[21] Computer History Museum, “1958: Silicon Mesa Transistors Enter Commercial Production.”
[22] Ray Kurzweil, “Average Transistor Price,” Singularity.com. http://www.singularity.com/charts/page59.html.
[23] Dan Hutcheson, “Graphic: Transistor Production Has Reached Astronomical Scales,” IEEE Spectrum, April 2, 2015. https://spectrum.ieee.org/computing/hardware/transistor-production-has-reached-astronomical-scales.
[24] James W. Cortada, The Computer in the United States: From Laboratory to Market (Armonk, NY: M. E. Sharpe, 1993), p. 117; 95 percent of these were in the US. See also “Early Popular Computers, 1950–1970,” Engineering and Technology History Wiki. https://ethw.org/Early_Popular_Computers,_1950_-_1970.