Парадоксы эволюции (страница 18)

Страница 18

Теория семантической информации

Демон Максвелла получает (увеличивает) информацию о системе, равную уменьшению энтропии (или увеличению негэнтропии), и, казалось бы, отсюда информация = негэнтропия. Однако Бриллюэн различал свободную информацию (без четкого определения) и связанную, возникающую, когда возможные случаи могут быть представлены как микроинформация физической системы, и замечал, что «только связанная информация будет представляться связанной с энтропией».

В российской литературе и части зарубежной со связанной информацией Бриллюэна наиболее соотносится термин «микроинформация», отличающийся от «макроинформации» (практически всегда соответствующей общему термину «информация» в большинстве резонов его применения) тем, что не обладает свойством фиксируемости (запоминаемости). В работах Дэвида Уолперта (см. ниже) с микроинформацией может быть сопоставлена «синтаксическая информация», а с макроинформацией – «семантическая (смысловая) информация». Помимо запоминаемости вторым критерием информации в наиболее оптимальном для практического применения определении информации по Генри Кастлеру является случайность: «информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных» (Кастлер Г., 1967). Важнейший момент в данной теории информации следует из ее определения: возникновение (генерация) информации – это случайный, но запомненный выбор. Второй важный момент – это наличие ценности информации, мерилом которой служит степень ее соответствия цели системы. Она может определяться как функция, включающая отношение вероятности достижения цели (или уменьшения энергетических, временнЫх или материальных затрат, если цель безусловно достижима) после получения информации, к этой вероятности или снижению затрат без обладания этой информацией (Чернавский Д. С., 2004). До получения информации вероятность достижения цели определяется тем, какой предварительной запомненной информацией (тезаурусом) уже располагает принимающий ее элемент. Имея минимумом информации, хотя бы минимальной запомненной информацией «о самом себе», элемент располагает минимальным тезаурусом.

В новой математической теории семантической информации Дэвида Уолперта и Артемия Колчинского (Artemy Kolchinsky and David H. Wolpert, 2018) эта мысль развивается с учетом ключевого влияния окружающей среды: семантическая («макро-») информация определяется как синтаксическая («микро-») информация, которую физическая система располагает о своей окружающей среде, и которая ситуативно (casually) необходима системе, чтобы поддерживать свое существование во времени (что созвучно понятию ценности информации).

Семантическая информация поддерживает длительное существование системы за счет минимизации энтропии системы. Дэвид Уолперт разделяет два вида семантической информации: сохраненную семантическую информацию, которая основывается на обмене общей информацией между системой и окружением в некий исходный момент времени, и наблюдаемую информацию, которая основывается на переносе энтропии между системой и окружением за время от исходного до момента наблюдения. В отличие от синтаксической микроинформации семантическая информация, располагая критерием ценности, может быть ценной (положительной), малоценной или вовсе ошибочной, то есть отрицательной, наносящей урон системе, сокращающей время ее существования. Семантическая информация, в противоположность синтаксической, по Уолперту, фундаментально ассиметрична в ходе любого обмена ею. Другое ключевое понятие, вводимое Уолпертом, это понятие «автономного агента» – физическая система способна быть автономным агентом в той степени, в какой она располагает объемом семантической информации. Данной теорией предполагается, что способность быть живым – это способность быть чрезвычайно развитым автономным информационным агентом.

Квантовая теория информации

Можно обсуждать, на каком уровне организации материи вообще возникает эта способность – обладать тезаурусом / быть минимальным автономным агентом. Она, связана с возможностью объекта случайно «выбирать» из нескольких (минимум двух) устойчивых состояний.

Квантовая теория информации в версии Сета Ллойда (Seth Lloyd, Ллойд С, 2013, Extreme Quantum Information Theory, xQIT) устанавливает, что уже каждая элементарная частица несет в себе информацию; даже исходя из принципа Паули каждая частица во Вселенной «знает», где находится другая аналогичная частица и может находиться как во многих «определенных» состояниях, так и «неопределенных» (суперпозициях). В квантовой механике, согласно xQIT, информация может возникать как бы «из ничего», что немыслимо для классической физики. Информация «из ничего», как увеличение энтропии (то есть микроинформация), возникает вследствие феномена квантовой запутанности из любого взаимодействия квантовых частиц – квантовых единиц информации (кубитов). И эта информация, вследствие дальнейшей цепи взаимодействий, имеет тенденцию к максимальному распространению в пространстве-времени, то есть обладает некоей «заразностью».

Сама Вселенная в рамках xQIT описывается как единый квантовый компьютер, вычисляющая сама себя. Кроме того, любые системы, имеющие в основе физические взаимодействия, понимаются ею как вычислительные. Доказывается, что вычислительная мощность любой физической системы может быть подсчитана как функция количества доступной системе энергии вместе с размером этой системы (Lloyd S., 2000). Своеобразные пределы вычислительной мощности (скорости обработки и генерации информации) задает теорема Марголюса – Левитина, устанавливающая, что максимальная частота, с которой физическая система (например, даже элементарная частица – такая, как электрон) может переходить из одного состояния в другое, пропорциональна доступной энергии системы: чем больше доступной энергии, тем меньше времени нужно системе (электрону) для перехода из одного состояния в другое (Margolus N. and Levitin L. B., 1998). Полными признаками вычислительных систем обладают химические и биологические системы. Даже в рамках ньютоновской механики столкновения атомов, как столкновения бильярдных шаров естественным образом совершают базовые логические операции «или», «и», «не», «копировать», согласно концепции «бильярдного» или обратимого механического компьютера Эдварда Фредкина и Томазо Тоффоли (Edward Fredkin and Tommaso Toffoli, 1982). И, соответственно, любая химическая система или реакция также могут быть описаны в терминах базовых логических операций.

Нет оснований сомневаться и в вычислительном характере поведения биологических систем. Наиболее очевидным образом это можно увидеть на примере простейших, как нам кажется, организмов. В эксперименте Липин Чжоу и соавт. (Liping Zhou et al., 2018) группа китайских и японских исследователей заставляла амебу Physarum polysarum решать классическую задачу коммивояжера – поиск оптимального маршрута через n городов. Причем не в простом варианте выбора из 3 вариантов маршрута для 4 «городов», а из 2 520 вариантов движения для 8 пунктов назначения (число вариантов = (n – 1)!/2).

Амеба, умеющая, казалось бы, только вытягивать свои ложноножки в сторону еды и сжимать их в сторону от света, была поставлена в условия, когда ей нужно вытягивать свои выросты по всему своему периметру в каналы с едой в их конце. Выбор канала влиял на частоту выключения света в других каналах и служил аналогом «удаленности» других «городов» от выбранного. Неожиданно, но амеба решала эту задачу оценки своей окружающей среды быстрее большинства современных компьютеров! Таким же весьма показательным образом некоторые реснитчатые черви (планарии) способны вычислять «самих себя»: рассеченный хоть на 279 частей вдоль, поперек или наискось червячок длиной не более 2 см способен полностью восстановиться из каждой отдельной части. Если планарию бить током и при этом светить ярким светом в микроглазки, эту комбинацию воздействия запомнит каждый из достаточно больших обрубков: восстановившись до целого червяка, каждый из обрубков будет съеживаться от новых вспышек света, то есть планария помнит всем телом.

Нет оснований считать, что вычислительные возможности гораздо более сложных организмов, включая человека, хоть сколько-то меньше. Однако их нацеленность и заточенность на решение гораздо более сложных, менее дефинированных и трудноформулируемых нашим языком задач не позволяет им в обыденной жизни проявлять такие удивительные феномены, на которые способны «простейшие» организмы в обработке семантической информации. Весьма похоже, что чем меньше или проще автономный информационный агент, тем на большие вычислительные «чудеса» он способен с простой человеческой точки зрения.

Где возникают смыслы и цели? Гипотеза безмасштабной когнитивности

Тем не менее изначальный вопрос, в какой момент базовая квантовая информация может начать соответствовать требованиям смысловой (семантической) макроинформации, и, соответственно, могут возникать автономные агенты, остается пока без определенного ответа. В любом случае можно сказать, что органические молекулы, имея возможность «выбирать» из нескольких стабильных состояний, уже обладают тезаурусом, и, таким образом, могут в составе динамической системы приобретать цель в данном информационном смысле.

Д. С. Чернавский (2004) выводит возможность спонтанного возникновения цели у элемента информационной системы (то есть системы, способной воспринимать, запоминать и генерировать информацию) из формальных математических оснований, на основании анализа поведения модели автономной динамической многокомпонентной мультистабильной системы, являющейся условным подобием живой или протоживой системы, или системы живых существ. Анализируемая Д. С. Чернавским модель информационной динамической системы многочленна: она включает временной член автокаталитического воспроизводства, отрицательный (то есть антагонистический) член взаимодействия разнородных элементов, член перенаселенности однородных элементов. В расширенный вариант модели добавлены выражения, симулирующие взаимопомощь однородных элементов, сотрудничество (симбиоз) разнородных элементов и модернизацию «своей» информации элемента.

Как показано Д. С. Чернавским, в таких информационных динамических системах с заданными свойствами целью каждого элемента становится сохранение своей информации. Эквивалентными формулировками данной цели с измененными акцентами могут, по Д. С. Чернавскому, быть «выбор такой информации, которая сохранится в будущем» и «распространение своей информации на всю систему». В последней формулировке можно увидеть ее конгруэнтность идее «заразности» бита квантовой информации Сета Ллойда. Можно зафиксировать, что индивидуальность объекта (агента), обладающего «разумностью» (достаточной вычислительной сложностью в обмене информацией с окружающей средой, предиктивностью и так далее), то есть живого, соотносится со способностью поддерживать цель в сообразном ему масштабе системы. А сама цель, как показано выше, в принципе, может возникать спонтанно. В обзорной визионерской работе Майкла Левина (Michael Levin, 2020) близкие положения формализируются на основе огромного свода публикаций последних лет в форме гипотезы «безмасштабной когнитивности» (Scale-Free Cognition). Вот ее основные положения в кратком, насколько возможно, изложении:

1. Когнитивная индивидуальность (Self, «Я» объекта) может быть определена по отношению к способности преследовать отдельные цели через поддержание гомеостаза, сопротивляющегося возмущениям.

2. Когнитивный мир индивидуальности характеризуется пространственно-временными границами его области интереса, в которых она может измерять, влиять и функционально связывать разрозненные события.