Алгоритм судного дня (страница 4)
В то время, когда Гоббс работал над первой частью своей трилогии, французский философ Рене Декарт опубликовал книгу «Размышления о первой философии», в которой задавался вопросом, как мы можем знать наверняка, что данный нам в ощущениях мир реален. Как можем мы проверить собственное сознание? Какое доказательство могло бы убедить нас, что наши мысли действительно принадлежат нам, а мир вокруг нас реален? Декарт был рационалистом, верившим, что факты могут быть получены путем дедукции. Он предложил знаменитый мысленный эксперимент. Он предложил читателям представить себе демона, якобы создающего иллюзию окружающего нас мира. Если бы физический, чувственный опыт читательницы, сообщающий ей, что она плавает в озере, был бы всего лишь наведен демоном, она не могла бы действительно знать, что плавает. Но с точки зрения Декарта, если читатель осознает свое существование, значит, он отвечает критериям знания. «Всякий раз, как я произношу слова Я есмь, я существую или воспринимаю это изречение умом, оно по необходимости будет истинным»[15], – писал он[16]. Другими словами, факт нашего существования не подлежит сомнению, даже если между нами и реальностью находится вводящий нас в заблуждение демон. Или же «я мыслю, следовательно, существую».
Позже в своем «Трактате о человеке» Декарт утверждал, что люди, вероятно, могли бы изготовить автомат в виде небольшого животного, который был бы неотличим от своего прототипа. Но даже если когда-нибудь нам удалось бы создать механического человека, его никогда нельзя будет спутать с настоящим, утверждал Декарт, поскольку у него не будет разума и, следовательно, души. В отличие от людей, машина никогда не сможет соответствовать критериям знания – она никогда не сможет осознавать себя, как это делаем мы. Для Декарта сознание находилось внутри нас – душа была духом, оживляющим машину нашего тела[17].
Несколькими десятилетиями позже немецкий математик и философ Готфрид Вильгельм фон Лейбниц рассматривал идею, что человеческая душа сама по себе запрограммирована, и утверждал, что при этом человеческий ум оказывается контейнером. Бог создал душу и тело так, чтобы они естественным образом сосуществовали в гармонии. Тело, разумеется, сложная машина, но оно едино с набором божественных инструкций. Наши руки движутся, когда мы захотим, но не мы изобрели механизмы, делающие движение возможным. Если мы осознаем боль или удовольствие, эти ощущения – результат работы заранее запрограммированной системы, непрерывной связи между разумом и телом.
Лейбниц предложил собственный мысленный эксперимент, иллюстрирующий его положение, что мысль и чувства неотделимы от человеческой природы. Представьте себе, что вы заходите на мельницу. Здание – это контейнер, заключающий в себе машины, сырье и рабочих. Это сложная система, составные части которой согласно работают ради общей цели, но разума она иметь не может. «Все, что мы найдем там, – это шестерни и рычаги, приводящие в движение друг друга, но ничего способного отвечать за чувства, – писал он, – Таким образом, чувства нужно искать в простых сущностях, но не в составных, таких, как машины». Его идея заключалась в том, как бы сложны ни были мельница, механизмы или автоматы, человек не может создать машину, способную мыслить или чувствовать[18].
Тем не менее Лейбница увлекала мысль о воспроизведении отдельных аспектов мышления. Несколькими десятилетиями ранее малоизвестный английский литератор Ричард Брейтуэйт, написавший несколько книг о поведении в обществе, мимоходом упоминает «компьютеров» – прошедших сложное обучение людей, способных быстро и точно производить вычисления[19]. В то же время французский математик и изобретатель Блез Паскаль, заложивший основы того, что сегодня мы знаем как теорию вероятности, занимался автоматизацией вычислительных задач. Паскаль наблюдал, как его отец кропотливо высчитывает налоги вручную, и хотел упростить ему работу. Поэтому он начал работать над автоматическим вычислителем с зубчатыми колесами и подвижными круговыми шкалами[20]. Вычислитель работал, и это заставило Лейбница уточнить свою мысль: у машин никогда не будет души, но когда-нибудь удастся построить машину, способную к логическому мышлению на уровне человека. В 1673 году Лейбниц описал «пошаговую машину выводов», новый тип вычислительного устройства, способный принимать решения с использованием двоичной системы[21]. Машина напоминала бильярдный стол с шарами, лузами, киями и желобами, и она открывала лузы в зависимости от последовательности единиц («открыто») и нулей («закрыто»).
«Пошаговая машина выводов» Лейбница заложила основу для новых теорий, включая ту идею, что, если логическое мышление может быть сведено к символам и результат проанализирован как вычислительная система, если геометрические задачи могут быть решены при помощи символов и чисел, тогда все может быть сведено к битам, включая человеческое поведение. Это значительный отход от идей философов прошлого: машины будущего станут воспроизводить человеческое мышление, не нуждаясь в идее божественного провидения. Для мышления не обязательно необходимы восприятие, чувства или душа. Лейбниц представлял себе компьютер, способный решать задачи общего характера, даже не обязательно математические. Он предполагал, что язык может быть сведен к элементарным идеям математики и науки и эту задачу можно рассматривать как часть работы над универсальным переводчиком[22].
Может быть, ум и машина просто следуют алгоритму?
Если Лейбниц был прав в том, что люди – просто одушевленные машины, и когда-нибудь будут изобретены машины неодушевленные, способные производить непредставимые нам и отточенные идеи, тогда в нашем мире должно существовать простое и однозначное разделение машин на два класса: мы и они. Но спор только начался.
В 1738 году Жак де Вокансон, художник и изобретатель, построил несколько автоматов для Французской академии наук, и среди них – сложно устроенную утку, очень похожую на живую. Она не только подражала движениям настоящей утки, хлопая крыльями и клюя зерно, но и умела имитировать пищеварение. Таким образом, философам была предложена пища для размышлений: если нечто выглядит как утка и крякает как утка, является ли оно на самом деле уткой? Если мы полагаем, что утка обладает душой, отличной от нашей, каково достаточное условие для вывода, что утка осознает себя, и что из этого следует?
Шотландский философ Дэвид Юм отвергал идею, что осознание своего существования служит доказательством наличия сознания. В отличие от Декарта, Юм был сторонником эмпиризма. Он разработал научный метод, основанный на наблюдаемых фактах и логических рассуждениях. Когда Вокансон показывал свою оснащенную пищеварительной системой утку – и задолго до того, как впервые заговорили об ИИ, – Юм писал в «Трактате о человеческой природе»: «Разум является, и должен быть, всего лишь слугой страстей». В данном случае под «страстями» Юм подразумевал «иррациональные мотивы» и утверждал, что наше поведение определяют привлекательные для нас цели, а не абстрактная логика. Если наши впечатления – просто восприятие нами вещей, которые мы видим, чувствуем, осязаем, пробуем на вкус, обоняем, а идеи – восприятие вещей, с которыми мы не входим в непосредственное соприкосновение, то наше существование и картина окружающего нас мира, по Юму, оказываются основаны на концепции человеческого восприятия.
Разработка сложных автоматов, облик которых приобретал все большую реалистичность, более внимательное рассмотрение идеи компьютеров как мыслящих машин привели французского врача и философа Жюльена Офре де Ламетри к мысли предпринять исследование людей, животных и автоматов – столь же радикальное, сколь и скандальное. В статье 1747 года, которую он сначала опубликовал анонимно, Ламетри утверждал, что люди удивительно похожи на животных и обезьяна могла бы освоить человеческий язык, если бы ее «надлежащим образом учили». Ламетри также сделал вывод, что люди и животные – просто машины, управляемые инстинктом и опытом. «Человеческое тело – машина, которая сама заводит свои пружины; душа – не более чем принцип движения или материальная и ощутимая часть мозга»[23].
Из мысли, что люди представляют собой просто машины, приводимые в действие материальными силами, – то есть шестерни и колеса, выполняющие определенный набор функций, – следовало, что мы не особенные и не уникальные. Из нее также следовало, что, может быть, нас можно программировать. Окажись это правдой, от конструирования убедительно выглядящих уток и миниатюрных монахов люди когда-нибудь смогут перейти к изготовлению копий самих себя – и делать разнообразные разумные, мыслящие машины.
Можно ли построить мыслящую машину?
К 1830-м годам математики, инженеры и ученые всерьез взялись за постройку машины, способной производить вычисления так же, как люди-«компьютеры». Английский математик Ада Лавлейс и ученый Чарльз Бэббидж изобрели «разностную машину», а позже разработали проект более сложной «аналитической машины», решавшей математические задачи путем выполнения заранее определенной последовательности шагов. Бэббидж не предполагал, что его машина будет использована для чего-либо, кроме действий над числами. Именно Лавлейс в примечаниях к научной статье, которую тогда переводила, добавила изумительно глубокий комментарий, что более мощный вариант машины можно было бы использовать иначе[24]. Если машина способна манипулировать символами, обозначающими разные вещи (например, музыкальные ноты), тогда ее можно было бы использовать для «размышления» о вещах, лежащих за пределами математики. Хотя Лавлейс не верила, что компьютер когда-либо обретет способность к самостоятельному мышлению, она предвидела создание сложной системы, умеющей выполнять инструкции и таким образом подражать человеку во многих его повседневных задачах.
В ста милях к северу от Кембриджского университета, где работали Лавлейс и Бэббидж, молодой математик-самоучка по имени Джордж Буль шел через поле в Донкастере, когда его внезапно осенило: он решил посвятить свою жизнь расширению логики человеческого мышления[25]. Во время этой прогулки родилось то, что мы сегодня называем булевой алгеброй: способ упрощения логических выражений (например, «и», «или», «не») через использование символов и чисел. Скажем, вычисление выражения «истина и истина» должно давать результат «истина», что физически могло бы соответствовать положению переключателей или крышек луз на компьютере. Булю потребовалось два десятилетия на формализацию своих идей. И еще только через сто лет кому-то пришло в голову, что булева логика в сочетании с теорией вероятностей могла бы превратить компьютеры из средства автоматизации элементарных математических операций в более сложные мыслящие машины. Технологии, позволяющей построить такую машину, еще не было – отсутствовали необходимые процессы, материалы и источники энергии, – и проверить теорию на практике было невозможно.
Переход от теоретического представления о мыслящей машине к компьютерам, начавшим имитировать мышление человека, произошел одномоментно, с публикацией двух основополагающих статей: «Символический анализ релейных и переключательных схем» Клода Шеннона и «О вычислимых числах и их применении к проблеме разрешения» (Entscheidungsproblem) Алана Тьюринга. Изучая электротехнику в Массачусетском технологическом институте, Шеннон в качестве предмета по выбору взял философию, что выглядело необычно. Основным научным трудом, на который опиралась его диссертация, был трактат Джорджа Буля «Исследование законов мышления». Научный руководитель Шеннона, Вэнивар Буш, подал ему идею реализовать булеву логику в виде физических схем. Буш построил усовершенствованную версию «аналитической машины» Лавлейс и Бэббиджа – она называлась «дифференциальный анализатор», – но сконструирована она была в некоторой степени бессистемно. В то время не существовало теории, которая диктовала бы методику проектирования электрических схем. Открытие Шеннона заключалось в том, что он осуществил схемную реализацию булевой логики и объяснил, каким образом с ее помощью получить рабочую схему, способную складывать нули и единицы.