Ссылки Обмен ссылками Новости сайта Поиск |
Корогодин В.И., Корогодина В. Л.
КОРОГОДИН В. И., КОРОГОДИНА В. Л.
Информация как основа жизни. – Дубна: Издательский центр «Феникс», 2000. – 208 с.
Книга посвящена феномену жизни и информации как внутренне присущему свойству информационных систем.
Рассматриваются свойства информации и информационных систем. Выделяются главные свойства информационных систем – способность к «целенаправленным» действиям и расслоение на информационную» и «динамическую» подсистемы.
Рассматривается динамика информации от ранних этапов эволюции физических информационных систем до систем с биологической информацией – генетической, поведенческой и логической. Особое внимание уделяется динамике биологической информации в биосфере. Одной из проблем, затрагиваемой авторами, является взаимодействие ноосферы и техносферы, связанной с автогенезом информации.
Книга рассчитана на специалистов, а также на круг читателей, интересующихся теорией информации, эволюцией, биологией и взаимоотношениями биосферы и техносферы.
KOROGODIN V.I. & KOROGODINA V.L. Information as the Foundation of Life. – Dubna: "Phoenix" Publishing Center, 2000. – 208 p.
The book analyzes the phenomenon of life and information as an inherent quality of information systems.
Properties of information and information systems are discussed. The main properties of information systems are pointed out: the ability to act "purposefully" and the division into an "informative" and "dynamic" subsystems.
The dynamics of information is analyzed, from the early stages of physical information system evolution to the systems with biological genetic, be-haviouristic and logical information. Special attention is attached to the dynamics of biological information in biosphere. One of the problems, connected with information autogenesis and discussed by the authors, is the interaction of noosphere and technosphere with biosphere.
The book is recommended to specialists and readers who are interested in the theory of information, evolution, biology and interaction of biosphere and technosphere.
© Авторы. В. И. Корогодин и В. Л. Корогодина, 2000 г. © Оформление. ИЦ «Феникс», 2000 г.
Оглавление
Глава первая. Историческая справка
Глава вторая. Информация и ее свойства
Глава третья. Информационные системы
Глава четвертая. Принцип поризма
Глава пятая. Динамика информации
Глава шестая. Биосфера и техногенез
Глава седьмая. Предвидимо ли будущее?
Обозначение используемых понятий
Contents
Prolegomenon
Chapter 1. History
Chapter 2. Information and Its Properties
Chapter 3. Information Systems
Chapter 4. Porism Principle
Chapter 5. Dynamics of Information
Chapter 6. Biosphere and Technogenes
Chapter 7. Can One Predict the Future
Designation of the Notions Used
Термин «информация»
Термин «информация» широко используется в научной литературе. Трудно найти область знаний, избежавшую соблазна его применять. Это – следствие все продолжающегося расширения смыслового поля этого термина.
В тридцатые годы и ранее слово «информация» использовали, в основном, как «сведения» или «осведомление», т.е. как прямой перевод латинского informatio. К концу сороковых годов под «информацией» начали понимать функцию статистических характеристик букв какого-либо языка. Так, согласно К. Шеннону [1], количество информации, содержащейся в каком-либо сообщении, состоящем из М букв, равно
(1)
где п – число букв в данном языке, ар– частота встречаемости i–той буквы (i=1,2...n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество информации Н всегда было положительным.
Под влиянием работ Л. Бриллюэна [2], начиная с шестидесятых годов, возник и приобрел широкую известность «негэнтропийный принцип информации». В отличие от энтропии, рассматриваемой в качестве меры неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода антиэнтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит формальное сходство обобщенной формулы К. Шеннона
(2)
и знаменитой формулы Больцмана для физической энтропии S = lnW, где W - число состояний, которые может принимать система. Если микросостояния системы различны, то формула будет выглядеть так
(3)
Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или энтропийных (эрг/град).
Б. Б. Кадомцев указывает [3], что величины I и S формально равны потому, что I соответствует информации одного единственного состояния из множества возможных, a S определена по множеству всех состояний. Здесь понятие информации дается в терминах физической статистики. Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности [4]. Эти два определения практически совпадают [5].
Однако существуют области феноменов, для обозначения которых этот термин также хорошо подходит, и использование его существенно упрощает задачи их изучения.
Жизнь вокруг нас
Замечали ли вы когда-нибудь, что в русском языке нет слова, противоположного словам «живое», «жизнь»? Вернее, есть слова «мертвое», «смерть», но они означают лишь то, что когда-то было живым, а затем погибло. «Неживое» также происходит от слова «живое». И этот характерный для многих языков феномен связан, видимо, с тем, что, склонный судить о других по себе, первобытный человек одушевлял, по аналогии с собой, весь окружающий мир [6].
Со временем представления о всеобщей одушевленности сменились представлениями о постепенности переходов неживого к живому. Так, Г. Лейбниц считал, что не существует неорганического царства, а есть только одно громадное органическое, различные ступени которого представлены в минералах, растительных и животных формах. Всюду в мире наблюдается непрерывность, и всюду, где мы встречаемся с какой-нибудь организацией, существует и жизнь. Мертвая и живая материи не суть какие-нибудь противоположности, но представляют собой две формы той же материи, отличающиеся друг от друга только оттенками.
Но философы пошли еще дальше по пути аналогий. В игре сил мертвой материи, и главным образом в игре химических сил, они увидели чуть заметный зародыш тех склонностей и стремлений, которые управляют деятельностью живых существ. По их мнению, все реакции материи указывают на существование в ней какого-то сознания, способности отличать дурное от хорошего, стремиться к приятному, избегать неприятного. Таково было мнение Эмпедокла еще в древности; так же считали Д. Дидро и Ц. Кабанис. Еще на заре химии Л. Бергав, например, сравнивал реакции соединения с сознательными союзами, причем соединявшиеся «по симпатии» химические элементы чуть ли не справляли свадьбу.
Живое и неживое
Одна из особенностей живых тел – их изменяемость во времени: рождение, рост, старение, умирание и распад. Но ведь рождение и гибель касаются всех тел Вселенной – от атомов до галактик. Любой материальный объект «живет и умирает» в том смысле, что он непрерывно изменяется в одном и том же направлении, пока не достигнет состояния «вечного покоя».
Постоянство формы, рост, питание и размножение – таковы обязательные признаки жизни. Может быть, они обусловлены особым химическим строением? Но еще в середине прошлого века ученые выяснили, что протоплазма живой клетки, состоящая из углерода, водорода, азота, кислорода, фосфора и серы, в химическом отношении близка к ароматическим соединениям. Сейчас досконально изученное в организме строение белков, жиров, углеводов и нуклеиновых кислот показывает, что они не отличаются от своих неживых аналогов, образующихся под влиянием высоких температур или электрических разрядов. Их можно получать даже «в пробирках», по заранее составленному плану.
Специфичны ли для живых тел эти основные признаки? Вспомним о кристаллах. Давно известно, что каждый кристалл имеет строго определенную форму. Мало того. Если форма кристалла нарушена, например, отбит кусочек, – достаточно поместить его в раствор того же вещества, и он, подобно ящерице с оторванным хвостом, будет восстанавливать повреждение. Уже это говорит о его способности к своего рода питанию – поглощению из окружающей среды нужных ему компонентов. И только после того, как ущерб ликвидирован, кристалл будет расти, пока не исчерпает «питательность» содержащего его раствора. Так же обстоит дело и с размножением: кто не видел друзы кристаллов, образующихся из пересыщенного раствора поваренной соли или сахара?
Все это означает, что такие специфичные признаки живого (постоянство формы, рост, регенерация, питание, размножение, старение, гибель и др.) характерны не только для живых организмов, но и для ряда заведомо неживых кристаллов. Но кристаллы, скажут нам, могут сохраняться в неизменном виде неограниченно долгое время, в отличие от живых существ. А сохранность сухих зерен в египетских пирамидах или хорошо высушенных коловраток, особенно при низких температурах? Когда организмы находятся в анабиозе, в состоянии «скрытой жизни», они могут оставаться без изменения годы и годы и вновь начинают «жить» только при подходящей температуре, влажности и наличии питания. Но так же ведут себя и кристаллы! Значит, очень многие свойства живого присущи и неживым телам.
Чем же тогда, действительно, отличаются живые организмы от неживых тел? Может быть, какими-либо особенностями тех же функций, которые свойственны и неживым кристаллам, например определенными требованиями к внешней среде, температуре, концентрации каких-либо веществ? Но как экспериментально показали такие крупные химики, как Ж. Жерне, К. Дюфур, В. Освальд и другие, и в этом отношении принципиальных различий нет. Так, процессы кристаллизации или размножения кристаллов очень чувствительны к температуре, концентрации раствора и наличию примесей, подобно тому, как эти же факторы влияют на скорость размножения микроорганизмов, помещенных в питательный бульон. Более того, подбирая специальные условия среды, можно получить химические образования, ведущие себя внешне неотличимо от живых организмов.
Что же такое живое?
И все же эти размышления о свойствах живого ни на шаг не приближают нас к ответу на вопрос: что такое живое? Конечно, отдельные признаки живых организмов можно найти и у неживых объектов, но то, что разделяет их, остается непонятным. По такому пути традиционное мышление шло до самого последнего времени. И хотя сегодня мы знаем, из каких химических соединений построено живое, что представляет собой дыхание, питание, выделение «отработанных шлаков», как происходит деление клетки, размножение одноклеточных и высших организмов, какие при этом идут молекулярные процессы, точного определения живого еще нет.
«Жить – значит обладать способностью откликаться более или менее целесообразно на воздействия окружающей обстановки», – писал К. Платэ, несколько видоизменив определение живого, предложенное английским философом Г. Спенсером, который полагал, что «жизнь есть определенное сочетание разнородных изменений, одновременных и последовательных, в соответствии с внешними сосуществованиями и последовательностями». По поводу этого определения жизни наш замечательный натуралист В. В. Лункевич [7] остроумно заметил, что оно дает нам «и очень много, и ничего». Очень много, потому что объединяет в единое целое все возможные проявления жизни, и ничего, потому что оставляет в стороне вопрос о причинах, их вызывающих.
По-видимому, нужно идти другим путем. Попробуем найти такое специфическое свойство, отличающее живое от неживого, обладание которым делает объект живым. Эта искомая сущность должна объяснить все проявления жизни, включая способность к прогрессивной эволюции. Среди самых разных свойств живого должно быть одно, объединяющее все многообразие живых существ. Свойство это давно известно, но почему-то до сих пор приписывалось только человеку. Это – способность совершать целенаправленные действия.
«Учение о цели» (телеология) восходит к доаристотелевским временам, когда движение небесных светил и невидимых атомов объясняли существованием единой «движущей силы», находящейся вне «материальных оболочек» привычных и знакомых всем вещей. Лишь с течением времени физики избавили неживой мир от влияния «единого движителя», и в его ведении осталась лишь живая природа. Эта одухотворяющая сила во времена Аристотеля, т.е. более 2000 лет назад, получила наименование «энтелехия». Такие представления под другими названиями просуществовали до начала нашего века [8], но в дальнейшем энтелехия сошла со сцены. На виду осталось очевидное – способность совершать целенаправленные действия. Если не связывать эту способность с сознательным стремлением к цели, то почти не нужно доказывать, что она присуща всем без исключения живым организмам.
Целенаправленное действие и его компоненты
Чем же «целенаправленное действие» отличается от других событий, происходящих вокруг нас?
Идет гроза, ветер гнет деревья, раздается грохот грома, молния ударяет в деревянный сарай, и начинается пожар. Можем ли мы по отношению к таким событиям сказать для чего они происходят? Нет, конечно. Мы полностью объясним эти события, если ответим на вопрос: почему'?
Но таким событиям противостоят другие, которые нельзя объяснить, ответив только на вопрос «почему?» и умолчав «для чего?» Это события, идущие с участием живых организмов: когда вирусная частица, прикрепившись к поверхности бактерии, впрыскивает в нее свою ДНК; когда муравьи роют вход в подземный муравейник; когда птица строит гнездо, зверь – нору или человек засевает зерном взрыхленное поле. Во всех подобных случаях, чтобы понять действия живых существ, следует знать, для чего они это делают. Подчас этого ответа достаточно, чтобы понять природу наблюдаемого явления.
Здесь напрашивается аналогия с машинами, изготовляемыми человеком, да и другими изделиями, которые производят разные живые существа – от насекомых до высших млекопитающих: термитниками и муравейниками, гнездами и норами, различными постройками и т.п. В таких случаях прежде всего решают вопрос, для чего они предназначены, а уже затем – почему и как. Цель стоит впереди, а уж насколько то или иное изделие будет ей соответствовать, зависит от искусства его творца. Поэтому-то такие изделия и называют искусственными.
Итак, «искусственный» – термин, применяемый к объекту, изготовленному каким-либо живым организмом согласно «своему желанию», для достижения своей цели – удовлетворить потребность живого. Но таким целям служат, по существу, любые действия, совершаемые живыми организмами, как бы ни был широк их диапазон. Эти целенаправленные действия далеко не всегда однозначно связаны с «конечной целью» – той именно потребностью, которую организм стремится удовлетворить, даже не осознавая этого. Но стоит внимательно понаблюдать за любым живым существом, и станет ясно, что все «конечные цели» сводятся к одной – оставить потомство. Поэтому можно сказать, что живое – это совокупность объектов, способных совершать целенаправленные действия, конечная цель которых – самовоспроизведение.
Целенаправленное действие отличается от спонтанного течения событий прежде всего тем, что оно повышает вероятность осуществления «события цели». Насколько повысится эта вероятность – зависит от искусства исполнителя, от степени его осведомленности о путях достижения цели и о наличии в его распоряжении необходимых ресурсов. Но, независимо от этого, любое целенаправленное действие характеризуется именно повышением вероятности достижения цели, и величина эта позволяет судить об его эффективности [9].
Вторая характеристика целенаправленного действия – те дополнительные изменения в окружающей среде, которые его сопровождают. При любом целенаправленном действии всегда (в соответствии со вторым законом термодинамики) появляются «побочные продукты» – от едва заметного повышения температуры окружающей среды до накопления в этой среде веществ, отравляющих все живое. Чем совершеннее методы достижения цели, тем меньше образуется побочных продуктов.
И, наконец, самое главное в целенаправленном действии – это механизм, который его осуществляет. Такой механизм можно назвать «оператором» [10]. В искусственных устройствах – это машина, изготовленная человеком, или какое-либо иное сооружение, сделанное живыми существами, а в живых организмах это сам организм, его тело, его строение, его навыки и умение пользоваться имеющимися ресурсами для достижения своей цели. Все мы прекрасно знаем, сколь различны организмы по размеру, форме и образу действий и как превосходно они пригнаны к среде своего обитания, своей «экологической нише». И чем больше такое соответствие, тем успешнее они достигают цели и тем менее пагубны побочные продукты, это сопровождающие.
Информационные системы
Остановимся подробнее на появлении информационных систем – процессе самоорганизации. Как показал И. Пригожий [11], это должны быть открытые системы, далекие от термодинамического равновесия. В такой системе должны иметь место каталитические и кросс-каталитические процессы. Такие процессы хорошо описываются нелинейными дифференциальными уравнениями. Когда система становится неустойчивой, любые малые возмущения во внешней среде приведут к переходу в новое стационарное состояние. Под влиянием возникающих в это время флуктуации элементы ансамбля могут «кооперироваться», что будет проявляться в новых системных свойствах. В этом процессе необходимо подчеркнуть следующее.
Критерием эволюции является принцип о минимальном производстве энтропии. Он указывает на то, что направленное развитие термодинамической системы происходит вне равновесного состояния и поддерживается слабыми, но постоянными силами. Когда система встречает препятствия к достижению идеального состояния минимального рассеяния, она начинает выбирать следующий наилучший путь и остается в состоянии минимального рассеяния и минимального производства энтропии. Т.е. самоорганизующаяся система появляется всегда, когда возможно «выжить» за счет своих кооперативных свойств при различных воздействиях или для того, чтобы лучше использовать окружающую среду [11-13]. Это можно считать обоснованием «целенаправленного» действия для любых самоорганизующихся систем.
Любое целенаправленное действие можно описать преобразованием
(4)
где R - ресурсы, расходуемые на его осуществление; s - условия среды, в которой это действие происходит; Q - объект, или оператор, это действие осуществляющий и построенный согласно некоторому определенному плану, или информации, I - событие цели; w - «побочный продукт», сопровождающий осуществление Z; р и Р - вероятность осуществления Z спонтанно и/или при участии оператора Q. Мы видим, что единственное отличие целенаправленного действия от естественного течения событий состоит в том, что оператор Q, его совершающий, построен на основании данной информации. Только это приводит к тому, что в некоторой ситуации s вероятность осуществления Z при участии Q выше, чем в его отсутствие (Р>р). Яркий пример этому – размножение живых организмов. В отсутствие в данной среде s живых организмов они не способны возникать спонтанно, «самозарождаться», т.е. р=0 даже при самых подходящих внешних условиях. Размножение же живых существ в подходящих условиях среды происходит с вероятностью Р, близкой к единице.
Роль информации в явлении размножения первым отметил, пожалуй, Дж. фон Нейман [14]. Выступая в Калифорнийском технологическом институте на симпозиуме «Механизмы мозга в поведении» с лекцией «Общая и логическая теория автоматов» (1948 г.), он впервые предложил описание универсального самовоспроизводящего автомата. Дж. фон Нейман отметил, что такой воспроизводящийся автомат, по существу, имеет структуру, подобную структуре живых организмов. Мы можем добавить, что этот автомат можно рассматривать как устройство, призванное обеспечить размножение, или аутокатализ, кодирующей его информации. Автомат имеет блок, отвечающий за создание оператора Q и автомата следующего поколения на основе ресурсов R. В живой клетке этот блок организует «метаболизм», и через него осуществляется отбор наилучших образцов. Если посмотреть на автомат фон Неймана с этой точки зрения, то очевидно, что он – схематическое отображение любых информационных систем, устроенных так, чтобы они могли обеспечивать воспроизведение кодирующей их информации. Вирусы и одноклеточные живые существа, многоклеточные растения и грибы, многоклеточные животные, наконец, человек и человеческие сообщества – все это информационные системы, структура которых задается относящейся к ним информацией, а функция обеспечивает воспроизведение этой информации.
В процессе дублирования исходной информации или при передаче ее из одного автомата в другой она может претерпеть изменения, и возможны три последствия: 1) либо новый автомат не сможет воспроизвести самого себя, и вся система погибнет; 2) либо автомат начнет «неправильно работать» и будет производить обреченных на гибель уродцев; 3) либо эти изменения окажутся жизнеспособными, и возникнет новый автомат, воспроизводящий новую, измененную информацию.
Как мы видели, самовоспроизведение автомата Q и кодирующей его информации I всегда и неизбежно сопровождается появлением «побочных продуктов» w. Это результат того факта, что КПД любого материального процесса не может превысить 1, а точнее – всегда остается меньше 1. Любое действие всегда сопровождается появлением «побочных продуктов», от диссипации энергии до накопления в окружающей среде различных «отходов производства», возникающих в ходе построения Q. Любая информационная система, таким образом, в ходе своего функционирования, направленного на ее самовоспроизведение, неизбежно изменяет окружающую среду 5 путем истощения ее ресурсов R и накопления в ней «побочных продуктов» w.
Здесь мы можем вспомнить Н.Винера [15]: «Информация – это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему». Но чтобы не придавать информации антропоморфный оттенок, что проступает у Н. Винера, можно предложить несколько иное определение. А именно: информацией можно назвать алгоритм построения системы, обеспечивающей воспроизведение этой информации, функционально связанной со средой своего местоположения. При этом следует подчеркнуть, что обеспечение воспроизведения информации – обязательный и необходимый атрибут любой информационной системы. Ведь система, не отвечающая этому требованию, неизбежно «выбывает из игры», а кодирующая ее информация разрушается и бесследно исчезает. Именно исчезает, а не переходит во что-то другое, – ведь «информация есть информация, а не материя и не энергия» [15], и законы сохранения на нее не распространяются [16].
Информация и ее носители
Остановимся коротко на структуре информационных систем и носителях информации.
После публикации работы К. Шеннона [1] понятие «информация» было очень быстро вытеснено понятием «количество информации». За «количество информации», согласно формуле (1), принимали логарифм величины, обратной вероятности осуществления какого-либо события. Такую подмену понятий стали использовать очень широко. Такой подход привел к отрыву понятия «информация» от семантики, или содержания сообщений, искони ему присущего. Подчеркнем, что в данном примере мы не можем выделить смысл (семантику) сообщения, не взяв для этого всех букв текста, являющихся носителями информации.
Рассмотрим пример информационных процессов из газодинамики (подробно см. [3]). В общем случае поведение разреженного газа описывается кинетическим уравнением Больцмана
(5)
где f – локальная функция распределения частиц по скоростям, a St(f) – член столкновения между атомами. Если столкновения часты, то функция распределения становится максвелловской и зависит от п, Т, и – локальных значений плотности, температуры и средней скорости. Если эти переменные являются функциями координат и времени, то уравнение Больцмана превращается в систему
где
где p = nT
Увеличение члена столкновений St(f) выделило набор величин п, Т, и, которые стали динамическими переменными. Их можно назвать параметрами порядка.
Мы дали описание открытой системы, далекой от равновесия. Если мы пойдем по пути усложнения системы, то заметим, что можно выделить часть, более тонко реагирующую на возмущения. Ее можно назвать управляющей, информационной частью, передающей сигналы в динамическую часть.
Теперь перейдем к генетической информации, носителями которой являются молекулы ДНК. Слова «ДНК», «гены», «наследственная информация» стали настолько привычными, что нередко воспринимаются как синонимы. В действительности это далеко не так. Гигантская по длине молекула ДНК состоит из четырех типов «кирпичиков», или нуклеотидов, которые могут быть соединены в любой последовательности. Эти молекулы обладают свойством, которое Г.Меллер назвал аутокатализом. Если в раствор, содержащий такие молекулы, внести в должном количестве все четыре нуклеотида (основания), то при соблюдении некоторых дополнительных условий эти молекулы начнут пристраивать основания вдоль своей цепи точно в той же последовательности, как и в них самих, а затем отделять от себя готовые копии. Процесс этот не зависит от того, какова последовательность оснований, составляющих исходные молекулы ДНК. Это может быть случайная последовательность, или строго чередующаяся, или любая иная – копии будут всегда похожи на оригинал, если не произойдет мутации, т.е. случайной замены, вставки или выпадения одного или нескольких оснований.
Если ДНК состоит из случайной последовательности оснований, это далеко не ген, поскольку никакой наследственной информации она не содержит, хотя и может самовоспроизводиться. Информация возникает на отрезках молекулы ДНК лишь тогда, когда благодаря мутированию (или по иным причинам) там сложится такая последовательность оснований, которая сможет повлиять на химические процессы, протекающие в ее окружении. Только тогда, выступая в роли «катализатора», ген сможет ускорить одни или притормозить другие процессы, изменяя тем самым свое химическое окружение. Постепенно все большие преимущества будут получать такие структуры ДНК, которые в непосредственном своем окружении могут увеличивать концентрацию нуклеотидов и других веществ, необходимых для их размножения. Лишь когда этот процесс завершится и в «первичной» молекуле ДНК возникнут отрезки, каждый из которых стимулирует образование необходимых для удвоения ДНК соединений или угнетает синтез соединений, препятствующих их удвоению, можно считать, что в молекуле ДНК возникли гены и что сама эта молекула стала носителем генетической информации.
Генетическая информация, следовательно, содержится в наборе генов, контролирующих синтез соединений, которые обеспечивают удвоение молекул ДНК в некоторых данных условиях. Появление генов тесно связано с возникновением аппарата трансляции, а также с формированием оболочек или мембран, отделяющих от внешней среды участок, где находятся молекулы ДНК [17]. Это уже возникновение живых объектов, которые могут расти, размножаться и приспосабливаться к новым условиям благодаря генам, возникающим и изменяющимся в результате мутаций; они умирают, когда разрушаются содержащиеся в них гены или когда они не в состоянии приспособиться к внешним условиям. Изменяясь, гены влияют и на другие структуры организма, обеспечивая тем самым «заселение» все новых мест обитания, появление многоклеточных растений, грибов и животных, т.е. эволюцию жизни на Земле. Как писал Г. Меллер, в основе жизни лежит ген.
Таким образом, совокупность генов, или генетическая информация, регулирующая целенаправленную деятельность любой живой клетки, определяется не самими основаниями ДНК, а последовательностью их расположения.
Различие между генетической информацией и молекулой ДНК позволяет также ввести понятие генетической информации и выяснить отличие таких ее носителей от информации как таковой. Поэтому-то мы и говорим, что генетическая информация записана в ДНК определенной последовательностью оснований. Именно эта информация, т.е. запись последовательности тех событий, которые должны произойти, чтобы вновь возникающие клетки могли вырасти, а затем вновь поделиться и т.д., – самый важный компонент живой клетки. То, о чем писал Меллер около 70 лет назад, можно сформулировать следующим образом: живое - это совокупность объектов, содержащих информационные структуры, обладающие свойствами аутокатализа и гетерокатализа, обеспечивающие размножение этих объектов в разнообразных условиях внешней среды. Жизнь – это возникновение все новых содержащих информацию объектов, материальные компоненты которых обеспечивают ее воспроизведение во все более разнообразных и сложных ситуациях. Очевидно, что чем сложнее эти ситуации, тем больше нужно информации, чтобы в соответствии с ней построить живой объект, способный в этих ситуациях существовать.
Как нам кажется, в мире неживой Природы нет примеров информационных систем, в которых носители информации отличались бы качественно от остальных элементов системы.
Основа жизни
Мы привыкли к словосочетанию «генетическая информация», забыли даже, что ввел его в научный обиход Э. Шредингер в середине 40-х годов [18]. В своей книге «Что такое жизнь с точки зрения физика?» он опирался на работу Н. В. Тимофеева-Ресовского, К. Г. Циммера и М. Дельбрюка «О природе генных мутаций и структуре гена», увидевшую свет в Германии в 1935 г. [19]. Это произошло вскоре после того, как Г. Меллер, ученик Т. Моргана, впервые показал, что гены не только воспроизводят себя и изменяются (мутируют), но что можно повлиять на частоту их мутирования, например, повышением температуры или действием ионизирующих излучений [20].
В 1928 г. Меллер [21] в статье «Ген как основа жизни» показал, что именно гены (образования неизвестной тогда природы), способные к ауто- и гетерокатализу, положили начало феномену жизни на нашей планете. «Ясно, что, став на эту точку зрения, мы избегаем логических трудностей, связанных с происхождением современной протоплазмы, с ее взаимодействием частей, действующих совместно в направлении продолжения роста и точного воспроизведения целого. Система эта образовалась, так же как и сложная макроскопическая форма высших растений и животных, ... постепенно, шаг за шагом, каждый из которых проверялся по мере того, как в первичных аутокаталитических генах мутация следовала за мутацией. В этом процессе преимущественно выживали, размножались и вновь мутировали лишь те гены, побочные продукты которых оказывались наиболее полезными для дальнейшего воспроизведения... Согласно этому взгляду, который, по-видимому, наилучшим образом выдерживает проверку исчерпывающим анализом, по крайней мере значительная часть протоплазмы явилась вначале лишь побочным продуктом активности генного вещества; ее функция... заключается лишь в питании генов; первичные же, свойственные всякой жизни, тайны скрыты глубже, в самом генном веществе... Мутабильного типа структуры в генном веществе несомненно претерпели в процессе эволюции глубокие изменения и подверглись усложнениям, а под их влиянием, конечно, эволюционировала и протоплазма, но другие структуры – те черты строения гена, которые ответственны за его первичное свойство аутокатализа – должны быть еще и сейчас такими же, какими они были в незапамятные времена, когда зеленая тина еще не окаймляла берегов морей».
Всего через 20 с небольшим лет после этой публикации было установлено, что гены представляют собой отдельные участки молекулы ДНК, размножающиеся путем комплементарного пристраивания друг к другу четырех видов нуклеотидов; гены мутируют, когда происходят ошибки в этом процессе; они управляют синтезом разного рода белков, составляющих протоплазму, переключаясь время от времени с аутокатализа (построения собственных копий) на гетерокатализ (построение инородных молекул) путем синтеза РНК и, с ее помощью, молекул белка.
Сейчас все это хорошо известные процессы. Можно ли проводить аналогии между свойствами живых клеток и, например, кристаллов? Рост и размножение кристаллов основаны на присоединении к исходной «затравке» все новых, точно таких же молекул из раствора. Вероятность этого равновесного процесса зависит от температуры и концентрации раствора. Размножение вирусной частицы также зависит от условий окружающей среды. Но вирусы, как и все живые организмы, – открытые системы и с большей эффективностью используют окружающую среду для выживания и размножения. Это касается, например, поиска клетки-хозяина и размножения в ней. Прикрепившись к поверхности живой клетки, вирус с помощью специального белкового устройства впрыскивает в нее свою молекулу ДНК или РНК, содержащую его гены. Гены вируса не только воспроизводят себя, используя синтезируемые зараженной клеткой «кирпичики», но также заставляют эту клетку создавать новые, не свойственные ей белковые молекулы, которые, окружая готовые генетические структуры новых вирусных частиц, создают белковую оболочку вируса, приспособленную для осуществления следующего цикла – заражения других клеток и размножения в них.
Все теории происхождения жизни вращаются вокруг попыток ответить на вопрос: как возникла ДНК и та информация, которая записана в ней [17]?
Поведенческая информация
Генетическая информация и ее изменчивость полностью определила эволюцию всех организмов, ведущих преимущественно прикрепленный образ жизни, т.е. растений и грибов. Однако, с развитием подвижности животных, активации поисков пищевых ресурсов и половых партнеров, все большую роль в их жизнедеятельности начинают играть новые, случайно возникающие ситуации, которые невозможно заранее предвидеть и «запастись» генетически детерминированными ответами на них. Это, видимо, и послужило основой для возникновения поведенческой информации. Поведенческой будем называть информацию, лежащую в основе поступков, контролируемых особенностями нервной системы, которые формируются временно, под влиянием жизненного опыта или процессов научения, например путем подражания родителям или другим сородичам.
С возникновением поведенческой информации роль генетической информации в жизни высших животных начинает изменяться. Теперь все большая роль в их выживании принадлежит не только генетически детерминированным ответным реакциям на те или иные ситуации, но и таким особенностям нервной системы, которые обеспечивают эффективное использование обучения и научения, в том числе решение без предварительного опыта внезапно возникающих задач [22]. Поведенческая информация постепенно играет все большую роль в выживании высших животных, примеры чему можно найти как у классиков [22, 23], так и у наших современников [24-27]. Максимальное развитие поведенческая информация получила у млекопитающих. Мы еще не знаем материальной (точнее, молекулярной) природы носителей этого вида информации и не умеем определять ее количество. Но нет поведения, которое не обеспечивало бы целесообразность поступков высших животных в разных ситуациях. Здесь тоже «работает» дарвиновский отбор: неадаптивные реакции приводят, как правило, к гибели животных, а вместе с ними погибает и «неправильная» информация.
Мы убеждены в том, что именно те генетически детерминированные структуры клеток и особенности организации нервной системы, которые делают ее способной накапливать и использовать поведенческую информацию, являются основой для формирования третьего вида информации – логической, с которой связаны возникновение и эволюция человека.
Логическая информация
Вряд ли можно сомневаться, что человек стал тем, что он есть, только обретя дар речи. «В начале было Слово...» (Иоанн, 1, 1). Первоначально логическая информация, носителем которой является речь, играла роль, скорее всего, лишь для ускорения и упрощения обмена между людьми поведенческой информацией. Но затем эта ее функция отошла на второй план. Основная роль и главная функция логической информации связаны, видимо, с особенностями ее носителя – человеческой речью. Речь, язык присущи только человеку. У других живых организмов (в том числе у обезьян и дельфинов) языка нет – есть лишь сигнальное общение, ничего общего, кроме внешнего сходства, с человеческой речью не имеющее [26]. Уникальная особенность языка, как носителя информации, состоит в том, что он позволяет информации существовать вне зависимости от индивидуумов, ее создающих или использующих. Именно язык создал единый информационный пул планеты, открытый для всех населяющих Землю людей.
Логическая информация не имеет четких границ с другими, неинформационными, языковыми феноменами, относящимися, например, к областям искусства, религии и т.п. Но все эти феномены, при тщательном рассмотрении, выполняют общую функцию содействия распространению и сохранению разных видов логической информации. Такую же роль играют и этика, и мораль, и другие стороны социальной жизни людей [28]. Все это, вместе взятое, оказывает на человека давление, направленное на все большее сплочение, объединение всех представителей человечества в единую общность и развитие единого информационного пула.
Подстать развитию информационного пула идет и реализация логической информации. Операторами, способствующими осуществлению целенаправленных действий и кодируемыми генетической информацией, служат все негенетические компоненты живых организмов. В случае поведенческой информации таким оператором является поведение животных в разных ситуациях. Дли логической информации в роли операторов выступают технологии – вся совокупность технологических приемов и процессов, известных человеку. Эти операторы существуют вне зависимости от желания и воли отдельных людей, как и кодирующая их логическая информация.
Мы сейчас находимся в фазе становления «информационного общества». Все новые достижения логической информации и основанных на ней технологий уже практически полностью объединены в единый информационный пул и единую технологическую систему планеты. Этому соответствует такое же (правда, идущее с некоторым запаздыванием) объединение человечества в разных регионах земного шара. Ведущая роль информации в этом процессе очевидна и не требует доказательств. От предсказаний: «Что нас ожидает завтра?» – мы воздержимся по той простой причине, что наше будущее принципиально непредсказуемо: даже небольшие изменения в информационном пуле, непредвидимые заранее, могут существенным образом видоизменить связанные с ними технологии, а следовательно, и наше с вами существование.
Автогенез информации
Первичные живые организмы возникли на нашей планете более 4 млрд. лет назад. Тем самым предшествовавшая неорганическая эволюция дополнилась эволюцией живых организмов [17], в форме которой выступила новая, ранее не существовавшая на Земле сущность – генетическая информация. Закономерности развития информации позволяют понять, как появились новые виды живых организмов, а по существу -новые варианты генетической информации [28]. Попадая во все более сложные условия, в создании которых информация принимала все большее участие через «наработку» побочных продуктов своей деятельности, живые организмы, подчиняясь естественному отбору, увеличивали количество содержащейся в них информации, повышали ее ценность, оптимизировали эффективность.
Различные варианты генетической информации менялись как количественно, так и качественно. В результате живой мир постепенно распространялся по всей планете. Вслед за прокариотами (бактериями) появились эукариоты – растения, грибы и животные. Количество генетической информации, содержащейся в клетках этих организмов, стремилось к возможному для них максимуму [29]. Для координации действий у одной из групп гетеротрофных организмов – многоклеточных животных – образовалась нервная система. У высших животных поведенческие реакции, играющие все большую роль в их жизнедеятельности, не ограничивались уже теми, которые передаются по наследству, а создавались и самостоятельно, на основании «жизненного опыта», и передавались потомкам через обучение. Так возникла поведенческая информация, по лабильности и скорости передачи существенно превосходящая генетическую.
Поведенческая информация образовалась на основе врожденных поведенческих реакций, генетически запрограммированных в нервной системе. Это – ярчайший пример перехода информации из одной формы в другую, с носителей одной природы (молекулы ДНК) на носители другой природы (нервные клетки). Для высших животных, обитающих в сложной природной среде, умение «вести себя» в тех или иных ситуациях играет такую же роль для выживания, как для простых живых существ «умение» потреблять нужную пищу, строить из нее свое тело и вырабатывать нуклеотиды, необходимые для размножения молекул ДНК. Поведенческая информация позволяла высшим животным не только ориентироваться в окружающей среде, но и взаимодействовать друг с другом в поисках пищи и половых партнеров, в воспитании и обучении потомства, в защите от врагов. Вырабатывались различные сигналы, которыми обменивались друг с другом высшие животные: химические метки, знаки на земле или коре деревьев и, конечно, звуки, имеющие разное значение в разных ситуациях. Так постепенно готовилась почва для формирования речи – способа обмена информацией путем различной последовательности звуков и их комбинаций. Складывалась человеческая речь.
Появление владеющего речью «человека говорящего» означало возникновение нового вида информации – информации логической. Б. Ф. Поршнев [30] связывал появление речи с формированием самого человека. Не труд, а речь сделала человека тем, что он есть. Трудиться может и «бессловесная тварь», не жалея сил и преодолевая разные препятствия для достижения своей цели – построения гнезда или плотины, при охоте за дичью. Но организовать труд, передавать друг другу уже приобретенные трудовые навыки, обобщать опыт и в сжатом виде трансформировать его в понятия – для всего этого необходима речь.
Если генетическая информация породила жизнь, поведенческая – обеспечила разнообразие поведения высших животных, то логическая информация, передаваемая с помощью речи, вначале устной, а затем и письменной, ознаменовала начало эры ноогенеза, эры рождения сферы разума, охватывающего, вслед за биосферой, весь земной шар. На основе логической информации, или, другими словами, на основе накапливаемого человечеством знания, начали развиваться технологии. Этим термином называют искусственно создаваемые человеком структуры и процессы, обеспечивающие его существование, а тем самым и размножение тех фрагментов логической информации, которые вызвали их к жизни. Если технология себя не оправдывает, человек ее отбрасывает, и лежащая в ее основе логическая информация утрачивается (забывается).
Так же, как биологическая эволюция представляет собой лишь «отражение в мире вещей» развивающейся генетической и поведенческой информации, так и техногенез – лишь отражение развития логической информации, существующей вне отдельных человеческих существ.
Предвидимо ли будущее?
Мы живем в мире неравновесных процессов. Математические задачи при решении нелинейных дифференциальных уравнений, о которых шла речь выше, приводят к области, называемой теорией бифуркаций. Это говорит о том, что если близко от точки равновесия система имеет единственное решение, то вдали от равновесия при некотором значении критических параметров в области неустойчивости она достигает точки бифуркации, начиная от которой для системы открываются новые возможности, приводящие к одному или нескольким решениям. Теория бифуркаций находит бесчисленные приложения начиная от физики, кончая экономикой и социологией. Попробуем построить приблизительные решения для судьбы логической информации.
Судя по аналогии с предыдущими видами информации, можно предположить автотрофное существование логической информации, подобно автотрофному типу питания, избранному растениями. Но у растений переход этот был связан с совершенствованием отдельных индивидуумов, представляющих собой искусные «живые фабрики» по производству глюкозы из воды и углекислого газа (с помощью квантов солнечного света) и использующих этот продукт для энергообеспечения синтеза молекул, слагающих их тела. В случае же логической информации иной путь к автотрофности – возникновение технологий, использующих тот же солнечный свет (а может быть, и термоядерный синтез) как источник энергии и «подручное» неорганическое сырье для создания сначала – систем жизнеобеспечения человека, а затем, возможно, и для строительства самовоспроизводящихся автоматов. Следует, однако, подчеркнуть, что автотрофность человечества – это такая же вольная фантазия, как и все другие футурологические рассуждения. Единственное, чему нас учит история, – это непредсказуемость будущего.
Пусть читатель не судит очень строго нашу попытку, в меру понимания, представить эволюцию информации, в особенности последний, биологический, этап ее развития. Нашей задачей мы считали не столько ответить, сколько поставить вопросы эволюции, используя идеи из разных областей знания.
Литература
1. Шеннон К. Математическая теория связи // «К. Шеннон. Работы по теории информации и кибернетике». М.: И ИЛ, 1963. С. 243-332.
2. Бриллюэн Л. Научная неопределенность и информация. М.: «Мир», 1966.
3. Кадомцев Б. Б. Динамика и информация. Редакция журнала «Успехи физических наук», 1997.
4. Kolmogorov А. N. Infomation transmission. V.I, 1965. № 3.
5. Zurek W. H. Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990.
6. Дастр Н. Жизнь материи. Краткий систематический словарь биологических наук. Ч. 3. СПб.: 1904. С. 5-31.
7. Лункевич В. В. Основы жизни. Ч. 1., М.-Л.: 1928
8. Дриш Г. Витализм. Его история и система. М.: 1915.
9. Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72.
10. Корогодин В. И. Определение понятия «информация» и возможности его использования в биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177.
11. Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY. 1962.
12. Баблоянц А. Молекулы, динамика и жизнь. М.: «Мир», 1970.
13. Моисеев Н. Расставание с простотой. М.: Аграф. 1998.
14. фон Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101.
15. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: «Советское радио», 1968.
16. Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив., 1973.
17. Эйген М., Шустер П. Гиперцикл. М.: «Наука», 1980.
18. Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947.
19. Тимофеев-Ресовский Н. В., Циммер К. Г., Дельбрюк М. О природе генных мутаций и структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: «Медицина», 1996. С. 105-153.
20. Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 178-205.
21. Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177.
22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922.
23. Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений, Т. 5, М.-Л.: Изд. АН СССР. С. 210-216.
24. Tinbergen N. The Study of Instinct. Oxf.: 1969.
25. Лоренц К. 3. Кольцо царя Соломона. М.: «Знание», 1978.
26. Панов Е. Н. Этология – ее истоки, становление и место в исследовании поведения. М.: «Знание», 1975.
27. Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977.
28. Корогодин В. И. Информация и феномен жизни. Пущшо: 1991.
29. Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667.
30. Поршнев Б. Ю. О начале человеческой истории (Проблемы палеопсихологии). М.: «Наука», 1976.
ИСТОРИЧЕСКАЯ СПРАВКА
Термин «информация»
Термин «информация» пришел к нам из латинского языка (informatio), и обычно переводится как «представление», «понятие» (о чем-либо), «изложение», «сведения», «осведомление», «сообщение» и т.п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. Налимов [1] приводит несколько попыток определить понятие «информация», предпринятых разными авторами, ни одну из которых нельзя признать удавшейся. «Даже эта совсем небольшая подборка определений понятия «информация», – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитивным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затемняющие его смысл и уже безусловно увеличивающие семантический полиморфизм этого слова» (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином.
Определить понятие можно двумя способами – либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов определения лежит возможность расчленить, подразделить смежные понятия или феномены, т.е. дискретность. Дискретность, как известно, фундаментальное свойство материального мира, т.е. мира вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, – неразрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что «Информация есть информация, а не материя и не энергия» (стр. 201), т.е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упомянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина.
Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая характерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.
Формула Шеннона
Возникновение классической теории информации было индуцировано развитием технических систем связи, призванных служить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон [3].
В 1924 г. X. Найквист предложил измерять количество информации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п – число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал применять логарифм этой величины, т.е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину
(6)
где Hi – количество информации, связанное с i-ой буквой алфавита, pi – частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k – коэффициент пропорциональности, величина которого зависит от q и от избранных единиц измерения количества информации; знак «минус» перед k поставлен для того, чтобы величина Hi всегда была положительной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет
(7)
где mi – число i-х букв в сообщении
К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь «типичный состав»: (тi/М → рi). Следовательно,
(8)
В случае бинарного кода, когда n = 2, а р1 = р2 = 0,5, q=2 и k=1, количество информации Нм становится равным М и выражается в так называемых бинарных единицах – битах.
Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном «математической теорией связи», и явилась основой классической теории информации.
Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия «информация». Во-вторых, термин «количество информации» здесь используется как синоним статистических характеристик букв, составляющих сообщение. В-третьих, по отношению к источнику сообщений здесь применяется слово «энтропия». Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.
Отсутствие определения понятия «информация» в работах К. Шеннона и его предшественников, по-видимому, довольно естественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т.е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограниченным числом сигналов или букв. При этом передают по каналам связи именно буквы, сигналы, а не информацию как таковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос «Что такое информация?», а вопрос «Какое количество информации можно передать в единицу времени, пользуясь данным набором сигналов?». Предложенное К. Шенноном определение «количества информации» (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера «количества информации» создавала ощущение, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие «несет с собой» информации.
Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, передаваемые по каналам связи, сами по себе не несут той информации, для обмена которой существуют системы связи. Информацию содержат лишь сочетания сигналов или букв, причем отнюдь не любые, а лишь осмысленные, наполненные определенным содержанием. Введение единой меры количества информации, содержащейся в сообщениях, меры, не зависящей от их семантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения.
Напомним, что ко времени выхода в свет работы К. Шеннона [3] научная общественность была уже подготовлена к ее восприятию. Зарождавшаяся тогда же кибернетика, или «наука об управлении и связи в животном и машине» [2], уже использовала термин «информация» для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или машиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое «поведение». Уже был пущен в оборот термин «генетическая информация» [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию «информация» полиморфизма в целях разработки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответствовала шенноновская концепция количества информации.
Однако надо ясно представить себе, что, не давая определения понятию «информация» и в то же время называя «количеством информации» частотную характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совершенно разных по своей природе феноменов информации как семантики сообщения и «информации» как частоты осуществления какого-либо события. Это делало возможной подмену терминов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо события. Термин «информация» в указанном выше смысле окончательно слился с термином «количество информации».
Формула К. Шеннона (6) по структуре своей подобна формуле, предложенной Л. Больцманом для выражения количества энтропии. Это формальное сходство послужило К. Шеннону поводом называть «энтропией», по аналогии с физической энтропией, свойство источника сообщений порождать в единицу времени то или иное число сигналов на выходе, а «энтропией сообщения» – частотную характеристику самих сообщений, выражаемую формулами (6) и (7).
Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала видимость столь же легкого решения и других связанных с использованием термина «информации» проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информации, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе «Бандвагон» [7].
Информация и энтропия
Своей зрелости классическая теория информации достигла к середине пятидесятых годов. Главная причина столь быстрого «созревания» – простота и элегантность ее математического аппарата, опирающегося на теорию вероятности.
Отсутствие строгого определения понятия «информация» создавало впечатление, что объектом теории информации является нечто, имеющее мало общего с тем, что называют информацией в обыденной жизни. Действительно, если «в быту» доминирует содержательная, смысловая сторона информации, то здесь семантика информации вообще не рассматривалась. Представление об энтропии сообщений, развитое К. Шенноном и вскоре дополненное другими авторами (см. напр. [8-10]), как бы открывало возможность для отождествления понятия «информация» с понятиями «разнообразие» и «термодинамическая энтропия». Это порождало соблазн распространения классической теории информации далеко за пределы теории связи, в том числе на явления неживой и живой природы и даже на различные области искусства [11-13].
Два утверждения характерны для классической теории информации периода зрелости. Первое это постулирование «всюдности» информации. Второе утверждение – это то, что мерой количества информации, связанной с тем или иным объектом или явлением, может служить редкость его встречаемости или сложность его структуры. Эти утверждения можно назвать постулатами классической теории.
Указанные постулаты, а также следствия из них, наиболее полно были изложены Л. Бриллюэном в его книгах [5, 6]. Прежде всего, за универсальную меру количества информации Л. Бриллюэн принял величину I = klnP, где Р - вероятность осуществления некоторого события или «сложность устройства» какого-либо объекта, k - постоянная, величина которой зависит от выбора системы единиц измерения, a ln - натуральный логарифм. Далее Л. Бриллюэн обратил особое внимание на сходство указанной формулы с формулой Л. Больцмана для исчисления количества энтропии S = klnW, где W - число микросостояний некоторой системы, соответствующей ее макросостоянию, а k - «постоянная Больцмана», равная 1,4·10-16 эрг-град-1 или 3,3·10-24 энтропийных единиц (1 э.е. = 1 кал'град-1). Отсюда Л. Бриллюэн сделал вывод, что, приняв k = 3,3·10-24 э.е., мы получим возможность выражать количество информации в энтропийных единицах (1 бит = 2,3·10-24 э.е.), а величину энтропии, напротив, в единицах информационных (1 э.е. = 4,3·1023 бит). Затем он сделал последний шаг в построении «негэнтропииного принципа»: сформулировал утверждение, согласно которому информация – это не что иное, как энтропия с обратным знаком, или негэнтропия.
Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных состояний. Увеличение информации о ней, что было бы эквивалентно фиксации в определенном состоянии, приведет к уменьшению энтропии системы. Другими словами,
I + S = const. (9)
Чем больше известно о системе, тем меньше ее энтропия. Важно еще одно обстоятельство. Утрачивая информацию, мы увеличиваем энтропию системы. Увеличивать информацию о системе мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда
Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятности отдельных состояний системы различаются (3), формально совпадают. Мы замечали, что они имеют совершенно различный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информации I = lnW. Энтропия (3) соответствует возможности нахождения системы с некоторой вероятностью I/W в каждом из доступных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.
В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к «забыванию» информации, и мы приходим к соотношению I + S = const. В соответствии со вторым законом термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотношение (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы.
Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать «физической информацией». Колмогоров [15] ввел понятие «алгоритмической информации». Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности. Алгоритмическая информация практически совпадает с информацией по Шеннону.
Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радиочувствительность клеток популяции дрожжей. Мы ставим эксперимент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем радиочувствительность клеток по числу выросших колоний. В ходе этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каждой клетки. Тем самым мы выбираем и фиксируем одно единственное состояние из всех возможных. Этот эксперимент, который выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т.д.). Второй пример – завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (накачивание внешней 7) перед выборами сменяются крайней политизацией. После выборов определяется количество проголосовавших за того или иного кандидата – поведение электората соответствует максимуму «информированности» о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.
Кратко резюмируя изложенное, можно заключить, что рождение новой информации всегда происходит в открытых системах, где параметры порядка становятся динамическими переменными.
В следующем параграфе мы рассмотрим системы с диссипацией избыточной внутренней энтропии.
Диссипативные структуры
Пусть будет некоторая открытая система, из которой постоянно удаляется шлак избыточной энтропии за счет роста энтропии внешней среды. Эта система является «диссипативной структурой». Пригожий с сотрудниками [16, 17] показали, что диссипативными структурами будут являться все разнообразные колебательные, пространственно организованные и пространственно-временные упорядоченные системы.
Для возникновения диссипативных структур необходимы следующие условия:
1. система должна быть открытой и находиться вдали от термодинамического равновесия;
2. в системе должны протекать различные каталитические и кросс-каталитические процессы, а также наблюдаться регуляция по типу обратной связи;
3. после некоторого критического значения параметров системы или какого-либо внешнего воздействия состояние системы становится неустойчивым и система может перейти в новое стационарное состояние, режим которого соответствует упорядоченному состоянию.
Под влиянием флуктуации отдельные элементы системы, взаимодействуя, обнаруживают свойства, характеризующие систему в целом, которые невозможно предсказать на основании свойств ее отдельных элементов. Такие структуры хорошо описываются нелинейными дифференциальными уравнениями. Примеры диссипативных структур можно взять из разных областей – физики, химии, биологии.
Одной из давно известных таких самоорганизующихся структур является реакция Белоусова-Жаботинского [18, 19]. Бросается в глаза большое число промежуточных соединений системы, которые соответствуют такому же числу дифференциальных уравнений. Для каждого из этих уравнений константа скорости должна быть получена из эксперимента. Один из этапов реакции является автокаталитическим.
Молекулярная эволюция. Гиперциклы Эйгена
В 1971 г. М. Эйген [20] сформулировал последовательную концепцию предбиологической молекулярной эволюции. Эйген распространил идеи дарвиновского отбора на популяции макромолекул в первичном бульоне. Далее он показал, что кооперирование молекул в «гиперциклы» приводит к компартментализации в виде отдельных клеточных единиц. Гиперцикл – это средство объединения самовоспроизводящихся единиц в новую устойчивую систему, способную к эволюции. Он построен из автокатализаторов, которые сочленены посредством циклического катализа, т.е. посредством еще одного автокатализа, наложенного на систему.
Дарвиновский отбор, являющийся предпосылкой для возникновения гиперциклов, на молекулярном уровне может иметь место в системах, обладающих следующими свойствами:
1. метаболизмом – система должна быть далеко от равновесия. Образование и разложение молекулярных видов должны быть независимы. Отбор должен действовать только на промежуточные состояния, которые образуются из высокоэнергетических предшественников и разрушаются в низкоэнергетические отходы. Система должна использовать освободившуюся энергию и вещества;
2. самовоспроизведением – способностью инструктировать свой собственный синтез;
3. мутабилъностью, которая всегда сопутствует самовоспроизведению. Ошибки копирования – основной источник новой информации. Образование и отшлифовка эйгеновских гиперциклов привели к созданию аппарата трансляции. Образование вслед за этим клеточной мембраны завершило предбиологический период эволюции.
Семантика
Вернемся снова к формуле Шеннона (6) и проанализируем текст «Завтра будет буря». Действительно, осмысленность или информация текста «Завтра будет буря» очевидна. Достаточно, однако, сохранив все элементы (буквы) этого сообщения, переставить их случайным образом, например, «рдеа Звубуб траяи», как оно утратит всякий смысл. Но бессмысленной информации не бывает. Согласно же формуле (7) оба предложения содержат одинаковое «количество информации». О какой же информации здесь идет речь? Или, вообще, можно ли говорить об информации по отношению к разрозненным элементам сообщения?..
Очевидно, отдельные элементы сообщения можно назвать «информацией» лишь при условии, если перестать связывать информацию с осмысленностью, т.е. с содержательностью. Но тогда это бессодержательное нечто вряд ли стоит называть «информацией», вкладывая в первичный термин несвойственный ему смысл. Учитывая, однако, что элементы сообщения реально используются для составления осмысленных текстов, содержащих информацию, эти элементы (буквы, сигналы, звуки) удобнее трактовать как информационную тару, которая может содержать информацию, а может быть и бессодержательной, пустой [21]. Очевидно, что емкость тары не зависит от того, заполнена ли она и чем она заполнена. Поэтому частотную характеристику элементов сообщения
лучше называть не «количеством информации», а «емкостью информационной тары». Это, кстати, хорошо согласуется с формулой К. Шеннона (7), по которой «количество информации» в данном сообщении не зависит от порядка следования составляющих его букв, а только от их числа и частотных характеристик.
Однако здесь резонно возникает вопрос, насколько обоснованно считать
емкостью i-го элемента информационной тары? Судя по работе [3], такой способ измерения количества информации введен скорее из соображений удобств. Коэффициент k здесь играет подсобную роль – его величина зависит от выбора единицы измерения количества информации (или емкости тары) и основания логарифма. Как мы уже отмечали, если за такую единицу принять бит, т.е. информационную емкость одного элемента стандартного бинарного кода, когда р1 =р2 = 0,5, а за основание логарифмов «2», то k=1, и тогда формула (7) приобретет вид Нм = М. В общем же случае эту формулу можно записать как (1), что по смыслу своему представляет собой не что иное, как расчет числа букв бинарного кода, требующегося для записи данного сообщения. При такой интерпретации выбор единицы измерения емкости тары и способа определения этой емкости приобретает обычное звучание, – но, конечно, лишь при условии максимальной компактности кода (когда реже встречающиеся в языке символы заменяются большим числом букв бинарного кода, чем чаще встречающиеся) и только в пределах данного разговорного языка. Сохранится ли это правило перехода от одного кода к другому для разных разговорных языков? А также от одного языка к другому?
Заметим, однако, два обстоятельства в данном примере текста «Завтра будет буря». Первое – текст понятен русскому, но является «китайской грамотой» для китайца. Это говорит о том, что каждый раз, когда мы говорим о семантике, необходимо иметь в виду семантическое родство сообщения и воспринимающей системы.
Второе обстоятельство касается того, что текст – замкнутая система.
Перейдем к открытым динамическим системам. Как мы уже отмечали, в таких системах будут возникать параметры порядка, именно они станут «семантикой информации», адекватной внешней среде. На основании этой новой информации будет идти естественный отбор на выживание этих организованных систем. Дарвиновский отбор накладывает ограничения на объекты всех уровней – физические, химические, биологические и другие [22]. В биологических системах первым уровнем дарвиновского отбора является генетический отбор. В этой монографии мы будем рассматривать биологические системы, начиная с генетической – живой клетки.
Литература
1. Налимов В. В. Вероятностная модель языка. М., «Наука». 1979.
2. Винер Н. Кибернетика, или управление и связь в животном и машине. М., Советское радио, 1968.
3. Шеннон К. Математическая теория связи. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-496.
4. Шредингер Э. Что такое жизнь с точки зрения физика? М., Гос. изд. ин. лит. 1947.
5. Бриллюэн Л. Наука и теория информации. М., Гос. изд. физ.-мат. лит., 1960.
6. Бриллюэн Л. Научная неопределенность и информация. М., «Мир», 1966.
7. Шеннон К. Бандвагон. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963, С. 667-668.
8. Голдман С. Теория информации. М., Изд. ин. лит., 1957.
9. Стратанович Р. Л. Теория информации. М., «Советское радио», 1975.
10. Яглом А. М., Яглом И. М. Вероятность и информация. М., «Наука», 1973
11. Коган И. М. Прикладная теория информации. М., «Радио и связь», 1981.
12. Поплавский Р. П. Термодинамика информационных процессов. М, «Наука», 1981.
13. Седов Е. А. Эволюция и информация. М., «Наука», 1976.
14. Кадомцев Б. Б. Динамика и информация. М.: Ред. ж. УФН, 1997.
15. Колмогоров А. Н. Теория информации и теория алгоритмов. М., «Наука», 1987.
16. Гленсдорф П., Пригожий И. Термодинамическая теория структуры, устойчивости и флуктуации. М.: «Мир», 1973.
17. Баблоянц А. Молекулы, динамика и жизнь. М., «Мир», 1990.
18. Белоусов Б. П. Периодически действующая реакция и ее механизмы. В Сб. рефер. по радиац. мед. за 1958 г. М.: Медгиз, 1959.
19. Жаботинский А. М. Концентрационные автоколебания. М.:«Наука», 1974
20. Эйген М. Самоорганизация материи и эволюция биологических макромолекул. М.:«Мир», 1976.
21. Корогодин В. И. Определение понятия «информация» и возможное его использования в биологии. Биофизика, 1983, т. 28, с. 171-178.
22. Моисеев Н. Н. Алгоритмы развития. М., «Наука», 1987.
ИНФОРМАЦИЯ И ЕЕ СВОЙСТВА
Дуальность окружающего мира
События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соответствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу относятся события из мира живой природы [1-3].
Изменениями обычно называют все, что происходит с окружающими нас объектами и с нами самими с течением времени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некоторый данный момент. Изменяется все: «Ничто не вечно под луной». Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежностью определяют направления, характер и скорость их изменений, будь то атом, человек или Вселенная. Конечным итогом таких изменений всегда и неизбежно является гибель, распад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней среде, что одни процессы в них идут чаще, другие реже, адекватно условиям среды.
Рассмотрим по одному примеру из первого и второго классов объектов: рост кристаллов и размножение бактерий. Кристаллы могут расти и размножаться, присоединяя к «матрице» –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут разлагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, – в данном примере бактерии, – они разлагают окружающие их вещества и уже из полученных «элементарных кирпичиков» строят заново те молекулы, которые используют для своего роста и размножения.
Кристаллы для своего роста используют то, что уже есть, живые организмы создают то, что им нужно, используя окружающие их вещества для получения строительного материала и свободной энергии.
Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различающиеся между собой – различия эти не случайны, а определяются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над прошлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, всегда имеет в виду конечную цель – размножение данного организма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т.е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организма – его самовоспроизведение.
Чтобы понять природу того или иного изменения, достаточно ответить на вопрос: «Почему?». Вопросы типа «Почему светит Солнце?», «Почему ржавеет железо?», «Почему орел может летать?» полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа «Для чего светит Солнце?» или «Для чего идет дождь?» лишены смысла и ответов не имеют, тогда как вопросы типа «Для чего летает орел?» вполне осмысленны и предполагают тот или иной ответ.
Дело в том, что полет орла, как и другие действия живых объектов, относятся к типу целенаправленных. Когда же речь идет о целенаправленных действиях, доминирующее значение приобретает вопрос «Для чего?». Ответ на вопрос «Почему?» здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. «Для чего цветут розы?», «Для чего поют соловьи?» – вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и животные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять...
Казуальность и телелогичность – вот те два принципа, которые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоящее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возникают и развиваются островки иного мира, где настоящее подчиняется будущему, где те или иные события происходят не только «потому, что...», но также «для того, чтобы...». Этот вторичный по отношению к миру косной материи мир жизни становится все могущественнее, он постепенно как бы вбирает, трансформирует в себя окружающую среду, все в большей степени контролируя происходящие в ней изменения, направляя их в нужное ему русло.
Чтобы избежать возможных недоразумений, заметим, что антропоморфизм таких терминов, как «контролирует», «стремится» и т.п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет.
Целенаправленность и целесообразность
Таким образом, мы наметили свойство, необходимо присущее всем живым организмам. Свойство это – осуществлять целенаправленные действия. Обеспечивается это тем, что живые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т.е. организованы соответствующим образом, или целесообразно.
Сопоставим теперь два термина – «целенаправленность» и «целесообразность». Термин «целенаправленность» характеризует действие в предположении, что цель его известна или может быть установлена. Термин же «целесообразность» допускает двоякую интерпретацию: такую организацию, которая делает возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две интерпретации термина «целесообразность» не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия.
Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом – построить его в соответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила существовавшую вплоть до середины XIX века веру в присущую живым организмам «жизненную силу», или «энтелехию», вызывающую их из небытия и управляющую их жизнедеятельностью и размножением.
Целенаправленное действие. Его компоненты и характеристики
Специфичность целенаправленного действия для живых организмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия «целенаправленное действие» попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что – специфического.
Пусть s – «исходная ситуация» или пространство режимов, в котором могут происходить различные события. Пусть Z - одно из таких событий, вероятность осуществления которого 0≤ р ≤1. Тогда спонтанное осуществление Z можно описать преобразованием
(10)
где w - другие изменения исходной ситуации, неизбежно сопутствующие осуществлению Z.
Назовем событие Z «целью». Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет «целенаправленное действие». Описать его можно как
(11)
где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q – «механизм», или оператор, применение которого в условиях s приводит к желаемому результату; I – информация, на основании которой этот оператор построен; и w – события, неизбежно сопутствующие осуществлению Z, или «побочные продукты» достижения цели.
Назовем R, s, Q, I, Z и w компонентами целенаправленного действия, а р и Р – его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправленного действия: любое действие, сколь бы ни было оно простым или сложным, можно полностью описать, задав его компоненты и характеристики.
Сопоставляя выражения (10) и (11), мы видим, что целенаправленные действия отличаются от спонтанных изменений лишь в одном отношении – наличием компонента Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обусловливается только тем, что оператор Q организован так, чтобы его «вмешательство» в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным.
Информация
Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, отличающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т.е. заранее имеющейся программой или планом. Совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией. Обозначать информацию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информацией I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации.
Таким образом, мы определили информацию как «руководство к действию», как то, что необходимо для построения любого оператора [4]. Естественно возникают вопросы о правомочности и адекватности такого определения.
Мы используем операционное определение понятия «информация», а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого способа не произволен: опыт показывает, что понятие «информация» невозможно вывести из представлений, относящихся к миру вещей, – ведь, как отмечал Н. Винер [5], «информация есть информация, а не материя и не энергия». Определение информации через описание форм ее проявления и ее свойств представляется вполне правомочным. Формой проявления информации, как мы видели, и является оператор – необходимый компонент целенаправленного действия.
Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином.
Обыденное понимание слова «информация» наиболее близко к его исходному значению: это либо «сведения, содержащиеся в сообщении» (имя существительное), либо «процесс передачи сведений» (глагол). В обоих случаях слово «информация» отражает тесную связь между «сведениями» (собственно «информация») и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от «отправителя» (источника информации) к «адресату» (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика использования информации определяется ее семантикой. Предполагается при этом, что одни и те же сведения – т.е. информация, обладающая одной и той же семантикой, – могут быть переданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т.е. материальный объект. Само собой разумеется, что природа этого феномена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно передавать самую разную информацию.
Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохранять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и передачей, позволяет также «запасать информацию впрок», про запас, на всякий случай. Физическая природа сообщений или записей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть – и, по существу, всегда бывает – разная.
Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационными актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществляться сам по себе, спонтанно, – для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, будем называть информационной системой. Элементарной информационной системой будем называть такую, дальнейшее подразделение которой приведет к расчленению механизмов, обеспечивающих осуществление отдельных элементарных информационных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.
Ниже мы увидим, что все эти особенности информации, хорошо знакомые нам из повседневного опыта, являются следствиями из ее свойств, общих для всех известных нам видов информации.
Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными системами. При этом мы все время должны иметь ввиду, что информация может существовать только в какой-либо информационной системе, в виде «записи» на том или ином «носителе»; что семантика информации не связана со способом ее записи и физической природой носителя.
Так как слово «информация» первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой информационные системы высокого ранга, сложнейшим образом переплетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для человека информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием.
Информацией называют также те сведения, которыми обмениваются между собой животные и которые, будучи восприняты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сигналов, в ходе обучения (например, родителями детенышей), путем подражания другим особям или создается в мозгу животного заново, на основе собственного жизненного опыта. Это –поведенческая информация. Информационными системами, оперирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одноклеточные.
Третий известный нам вид биологической информации – генетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и вирусов. Специфическими для этой информации системами являются все генетические компоненты живых организмов.
Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом.
На последнем утверждении стоит дополнительно остановиться. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень характерны передача и утеря информации. Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в иерархически подобную или более высокую информационную систему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информации. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, например генетической, может иметь разные последствия для организмов, в том числе и положительные, но в определенных ситуациях она может попадать во внешнюю среду вне своей информационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информационную систему (горизонтальный перенос генетической информации, см., например [6, 7]), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Изменение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, однако, совершенно ясно, что возникать самостоятельно, вне живых организмов, биологическая информация не способна [8].
Однако как в обыденной жизни, так и в научной литературе «информацией» нередко называют все, что может воздействовать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источниками таких воздействий живые или неживые объекты [9]. В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исчезают различия между совокупностью сигналов, обладающей семантикой, родственных источнику и приемнику, и «слепым» воздействием одного объекта на другой.
Чтобы отличать сигналы или воздействия, содержащие информацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особенностях материала носителя, способа фиксации, выбора языка и кода и т.д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от того, известен их источник или нет. Действительно, какая информация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные «сигналы» могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать «источниками» информации, – и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюдений, измерений и т.п. процедур, производимых человеком: обработку их нередко называют «обработкой информации», хотя на самом деле это есть один из этапов создания новой информации в человеческом мозге, а не «извлечение» ее из наблюдений и измерений.
Таким образом, внешние воздействия, воспринимаемые живыми организмами, можно подразделить на два класса: сообщения, или «носители информации», источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воздействий, которым подвергаются живые организмы, весьма существенно для ясного понимания того, что именно представляет собой информацию.
Выше мы видели три вида биологической информации, и четвертого нам не известно. Это – генетическая информация, поведенческая и логическая, или человеческое знание. Для каждого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информационные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей.
Фиксируемость информации. Ее носители
Свойства, присущие всем видам информации, можно разделить на две группы, внутри каждой из которых они тесно связаны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой – ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах.
Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи «ни материей, ни энергией», она может существовать только в зафиксированном состоянии. Никто никогда нигде не встречался с информацией, которая была бы в «свободном виде», а не в виде «записи» на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т.е. не имеют никакого отношения к ее семантике.
Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отношения, – это физическая природа носителя и специфика «считывающего устройства» той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе.
Адекватность способа фиксации информации способу ее считывания означает, что способ записи, носитель и считающее устройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериодическую форму[2]. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв.
Важнейшей особенностью фиксации любой информации является возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность символов или сигналов, используемых для фиксации и передачи информации, или возможность считывания их в линейной последовательности.
Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информации может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригодных для фиксации информации. А так как простейшим вариантом различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциальным носителем информации может быть любой феномен окружающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.
Следует, однако, проводить строгое различие между потенциальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект информацию или нет.
Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информации и могут ли они существовать вне своих информационных систем?
Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, составленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным способом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, составленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, алфавит, способ «печати» и природу «подложки». Каждый из этих видов носителей может варьировать, разрушаться и исчезать независимо один от другого. Очевидно, однако, носители информации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: систему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать.
Физические объекты, содержащие информацию, могут находиться как «внутри» своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в результате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от информационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информационной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел любой информации, «вырвавшейся» из своей информационной системы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убеждены, во-первых, в том, что возникла-то она обязательно в какой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь «деградирует», но не «существует».
Теперь мы вплотную подошли к проблеме распознавания. Если имеется некий физический объект и мы хотим выяснить, содержит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или может относиться? какие способы фиксации информации здесь использованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информации на данной подложке, а не спонтанное ее возникновение, проистекающее из самой природы объекта. Ведь сведения, которые мы «получаем», анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объекте содержащейся, – если, конечно, она там имеется.
Инвариантность информации по отношению к носителям
С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физической природе носителей [10]. Это важнейшее свойство информации, и представлять его себе следует очень ясно.
Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее семантики, может быть «записана» на любом языке, любым алфавитом, т.е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни семантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее автономность и суверенность, которые сохраняются как бы наперекор судьбе, обрекающей информацию быть вечным узником мира вещей – ее физических носителей.
Инвариантность информации обусловливает возможность использовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных актов – создания, передачи, приема, хранения и использования информации. Для «перевода» информации с одной системы записи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвариантности. Таким образом, именно инвариантность лежит в основе возможности понимания информации – перевода ее с чуждого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инвариантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.
Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.
Количество информации и емкость информационной тары
Инвариантность информации по отношению к носителям создает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т.е. как бы «сведения ее к единому знаменателю». Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой
(12)
где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р1 = ро = 0,5) величина Нм = М. Другими словами, количество информации, выраженное в битах, равно числу знаков бинарного алфавита, необходимому для ее записи.
Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по отношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измерения этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.
Свойство инвариантности, как мы уже видели, позволяет утверждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли «информационной тары», которая может содержать информацию, причем любую. Если представление о количестве информации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной тары должна быть одной и той же. Полагая элементарные носители информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по существу означает, что для записи этого сообщения бинарным кодом требуется М букв.
Формулу (1) можно записать несколько иначе, а именно:
(13)
Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данного количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может «вместиться» в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.
Итак, мы пришли к выводу, что информационная емкость i-го символа любого алфавита, выраженная в битах, равна –log2pi, где pi есть частота встречаемости этого символа в данном языке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.
Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации получает адресат, воспринимая каждую из букв сообщения? Количество такой информации он и предложил выражать через величину Н и постулировал аддитивность этой величины по отношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих сообщение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители содержат и содержат ли они ее вообще. Однако для теории информации эти различия весьма существенны, и вот почему.
Рассмотрим два сообщения: «Каин убил Авеля» и «инилА ваКу лебя». Оба они состоят из одинаковых 15 знаков, но первое – вполне осмысленно, т.е. содержит информацию, а второе представляет собой случайную последовательность букв и никакой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации –около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества информации, а емкости информационной тары. Первая фраза – это тара, «полностью загруженная информацией», а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не зависит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Если тара заполнена, то ее емкость может служить мерой количества содержащегося в ней груза. Эти простые соображения позволяют сделать три вывода. Во-первых, если H-функцию считать емкостью информационной тары, то ее в равной мере можно прилагать и к осмысленным, и к бессмысленным наборам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информации, которая в ней может содержаться. В-третьих, при измерении в битах количество информации В, содержащейся в сообщении, заключено в интервал 0≤В≤Н, где Н – емкость составляющих сообщение носителей информации. Н сообщения, таким образом, – это верхняя граница того количества информации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте.
К этим же выводам можно прийти и другим путем, рассматривая смысловое содержание понятия «избыточности», или условную вероятность встречаемости i-ro символа после 1-го, 2-го и т.д., а также после разных сочетаний двух, трех и т.д. символов [11]. При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины pi независимо от i, стремятся к единице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары информацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер [5], то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре информации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно случайном расположении составляющих сообщение букв.
Теперь вернемся опять к вопросу о дискретности и непрерывности информации. То обстоятельство, что элементарные единицы носителей информации – буквы – дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуальности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определенному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересному следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, записанного 24-х буквенным алфавитом, H = 78,37 бит, то при записи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изменяется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хорошо соответствует описанной ситуации.
И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о «полной» или «неполной» информации, имея в виду достаточность или недостаточность данной информации для построения какого-либо оператора. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпывающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как «полнота» и «неполнота». Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненности ею носителей), но не по самой информации, как таковой. Ведь «информация есть информация, а не материя и не энергия», и этого не следует забывать.
Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действительности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т.е. с увеличением Н разность между М теоретическим и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфавитами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют.
Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипостасями ее носителей − языковой и алфавитной. Способ фиксации информации и природа ее носителя, столь важные для сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее семантикой, – т.е. семантика информации в пределах любого заданного ее количества может быть любой.
Бренность информации
Итак, каждая данная информация, – точнее, каждый ее экземпляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловливает, прежде всего, такое свойство информации, как ее бренность, т.е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее – о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который использован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с деформацией же носителя зафиксированная на нем информация изменяется или разрушается, т.е. исчезает. Таким образом, информация погибает только со своими носителями...
Транслируемость, размножаемость и мультипликативность информации
Бренности информации противостоит такое ее свойство, как транслируемость, т.е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи.
Пусть Vp - средняя скорость размножения информации в результате трансляции, a Vr – средняя скорость ее гибели. Тогда отношение
(14)
будет характеризовать «жизнеспособность» информации. Действительно, при L < 1 данная информация обречена на вымирание, независимо от абсолютного значения Vp; L = 1 – нестабильное состояние, соответствующее «прозябанию» информации [12]; a L>1означает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта удвоения.
Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т.е. возможность одновременного существования одной и той же информации в виде некоторого числа идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не ограничено, т.е. может быть сколь угодно большим.
Изменчивость информации
Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям.
Если под гибелью информации понимать как ее исчезновение или разрушение, так и «обессмысливание», то под изменчивостью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут приводить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых символов или замена одних символов на другие. Масштабы таких событий (т.е. число выпавших, встроенных или замененных символов), а также причины, к ним приводящие, могут быть самыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.
Подчеркнем, что транслируемость, изменчивость и мультипликативность информации – вот те «три кита», на которых базируются динамика и эволюция любой информации.
Действенность информации. Операторы
Выше мы перечислили ряд свойств, производных от первой ключевой особенности информации – ее фиксируемости. Это – инвариантность информации по отношению к носителям, ее измеряемость, бренность, транслируемость, размножаемость, мультипликативность и изменчивость. Вторым ключевым свойством информации является ее действенность, на чем мы сейчас и остановимся.
Действенность информации может выявляться лишь в адекватной ей информационной системе, – вне таковой любая информация, не будучи «ни материей, ни энергией», абсолютно пассивна. Однако, будучи включена в свою информационную систему, информация, соответственно ее семантике, может быть использована для построения того или иного оператора, который, в свою очередь, будучи помещен в подходящее пространство режимов, может совершать те или иные целенаправленные действия. Оператор, таким образом, выступает в роли посредника, необходимого для проявления действенности информации. В связи с этим сам оператор может рассматриваться как реализованная или материализованная информация.
Действенность информации, проявляющаяся при посредстве оператора, является необходимым условием ее существования. «Бездеятельная» информация обречена на гибель и разрушение[3]. Вот почему можно утверждать, что каждая информация стремится материализоваться - воплотиться в соответствующий оператор. Ведь информация, лишенная такой способности или утратившая ее, обречена на гибель.
Семантика информации. Понятие цели
С действенностью информации тесно связано, прежде всего, такое ее свойство, как содержательность, или семантика. Из сказанного выше уже ясно, что семантика информации может проявляться лишь одним путем – в специфике кодируемого ею оператора. Возможность быть использованной – в ее материализованном виде, т.е. в качестве оператора, – для достижения той или иной цели обусловливает ценность информации. То очевидное обстоятельство, что любой оператор, вообще говоря, может быть использован для достижения разных целей, определяет важнейшее свойство информации, которое может быть названо полипотентностью.
Действенность информации, как мы уже отмечали, может проявиться только через оператор – материальный объект, машину, созданную на ее основе. Заметим, что при реализации информации в оператор никакой «материализации» информации в том смысле, что информация исчезает, а вместо нее возникает оператор, не происходит. Но независимо от способа реализации справедливо утверждение, согласно которому каждая данная информация однозначно определяет оператор, для построения которого она использована. Однозначность здесь понимается в таком же смысле, как однозначность определения фенотипа генотипом. Определенность информации и позволяет ей проявить свою семантику.
Это отнюдь не тривиальное определение семантики информации требует более тщательного рассмотрения. В ходе этого рассмотрения выявится, что такое представление о семантике отражает, если можно так сказать, лишь «средний слой» этого понятия, имеющего как бы трехслойную структуру. Но этот средний слой реален и осязаем, тогда как верхний и нижний, или базовый, как бы размыты и не всегда очевидны.
Верхним наружным слоем семантики можно называть то, что обычно и связывают с этим словом, – ответ на вопрос «О чем повествует данная информация?». Этот слой легко выявляется в том виде информации, который мы называем логической, труднее – в поведенческой информации, и почти не выявляем в генетической информации. Верхний слой, однако, сам по себе не имеет смысла без возможности обеспечения организации оператора, что довольно ясно проступает в случае поведенческой информации и доминирует в случае информации генетической. Однако средний слой также отступает на второй план перед вопросом «Для чего нужен данный оператор?» – а ответ на этот вопрос, даваемый нижним слоем, и проясняет суть дела.
Вспомним, что свойство бренности означает, что данная информация неизбежно погибнет, если не будет вовремя ретранслирована или размножена. Сама по себе информация размножаться не в состоянии. Реплицирует информацию только соответствующее устройство, входящее во включающую его информационную систему. Об осознанности, преднамеренности подобного действия не может быть и речи, – оно осуществляется как бы само по себе, автоматически, при переходе информационной системы в соответствующее состояние. Все это позволяет утверждать, что семантика любой информации должна определять такие особенности оператора, благодаря которым хотя бы в некоторых ситуациях происходило повышение вероятности репликации данной информации. Третий слой семантики любой информации и представляет собой сведения о путях ее воспроизведения в некотором пространстве режимов. Собственное воспроизведение – цель, достижение которой обязательно «заложено» в семантику любой информации.
Здесь, как и в случае с вопросом о дискретности или непрерывности информации, мы опять сталкиваемся с зыбкостью, расплывчатостью ряда понятий, казавшихся в мире вещей ясными и определенными. Сделанное выше утверждение не следует понимать дословно, будто всякая информация свидетельствует только о том, как можно ее воспроизвести. Ни в коем случае. Представим себе множество информации, последовательно поступающих в универсальный автомат фон Неймана (см. ниже, главу 3). Пусть большинство из них непригодны для того, чтобы включить механизм их воспроизведения, и по мере старения их носителей со временем погибнут. Лишь та информация, которая в данной системе и в данном пространстве режимов окажется обладающей такой семантикой, которая прямо или косвенно пригодна для включения реплицирующего режима, окажется воспроизведенной в виде одной или нескольких копий, и ее существование продлится постольку, поскольку ее воспроизведение будет опережать гибель ее носителей. Это не означает, что семантика других, погибающих, информации была иной природы, – просто она не соответствовала в этом, решающем для продления существования информации, смысле тем условиям, в которых она оказалась; в другой ситуации результат мог бы быть совершенно иным. Поэтому по отношению к тем условиям, в которых информация регулярно подвергается воспроизведению, утверждение о том, что сущность семантики информации есть способ и условия ее воспроизведения, приобретает оттенок тривиальности. Однако отнюдь не тривиально утверждение, что эволюция семантики всегда и неизбежно направлена в эту и только в эту сторону, – утверждение, которое, по существу, будет следствием рассмотрения закономерностей динамики информации (глава 6).
В заключение этой главы можно сказать следующее. Именно семантика информации обусловливает специфику оператора и тем самым того целенаправленного действия, которое данный оператор может осуществить. Но при этом природа целенаправленного действия всегда и неизбежно такова, что его осуществление должно прямо или косвенно повышать вероятность воспроизведения кодирующей его информации. Именно в этом смысле семантика информации всегда представляет собой отражение тех условий, которые необходимы и достаточны для ее (информации) воспроизведения.
Тут уместно напомнить, что принцип самоорганизации материи основан на кооперировании элементов в систему, в которой свойства ее в целом будут отличны от суммы свойств ее элементов. Флуктуации в открытых системах и дарвиновский отбор помогут найти вариант, свойства которого позволят повысить выживаемость информационной системы или эффективность использования внешней среды. Из этого можно заключить, что целенаправленность на выживание является принципиальным свойством любой самоорганизующейся системы.
Таким образом, полезность – свойство информации содействовать осуществлению в определенном месте и в определенное время некоторого события, которое естественным путем там не произошло. Когда же говорят об истинности информации, то имеют в виду адекватность отражения данной информацией той или иной уже существующей ситуации. Однако единственным критерием такой адекватности может служить только успешность осуществления в этой ситуации какого-либо целенаправленного действия. Таким образом, если полезность – как бы потенциальное свойство информации, то ее истинность выявляется в ходе реализации этого ее свойства[4].
Так мы подошли к одному из классических гносеологических утверждений, согласно которому критерием истины является практика, т.е. реальная вещественная деятельность. При этом из полипотентности информации следует как возможность существования большого числа в равной мере истинных, но не совпадающих друг с другом информации, так и возможность градаций степени истинности, а также ее относительность, т.е. зависимость от ситуации и цели.
Рассмотрим теперь случай, когда целью является трансляция самой информации, – то, что в явном или неявном виде предполагается семантикой любой информации. В таком случае в роли субъекта будет выступать эта информация, а ее истинность окажется условием ее собственного успешного существования. Здесь практика (т.е. осуществление целенаправленного действия) будет уже не только критерием истинности, но и критерием жизнеспособности информации. Таким образом, мы пришли к интересному и отнюдь не тривиальному выводу, что жизнеспособность информации обусловливается в конечном счете ее истинностью.
Истинность информации – необходимое, но еще не достаточное условие ее жизнеспособности. Если какая-либо информация никому не нужна и никем не используется, то истинность ее просто не сможет быть выявлена. Такая информация обречена на гибель не ввиду ошибочности, а из-за ее ненужности. Следовательно, для обеспечения жизнеспособности информации требуется не только ее истинность, но и ее нужность, ее полезность, т.е. гармония объективного и субъективного аспектов информации, отражаемых этими терминами.
Полипотентность информации
«Ничто не возникает в теле для того, чтобы мы могли воспользоваться этим: напротив, тому, что возникло, находится применение», – писал Тит Лукреций Кар [1] около двух тысяч лет тому назад. Это высказывание как нельзя лучше отражает то свойство информации, которое мы назвали полипотентностью [2]. Проявляется полипотентность в том, что оператор, представляющий собой продукт реализации семантики данной информации, может быть использован для осуществления самых разных целенаправленных действий, т.е. как для достижения разных целей в данном пространстве режимов, так и для достижения одинаковых или разных целей в разных пространствах режимов, или в разных ситуациях. Так, одним и тем же молотком можно вбить гвоздь, разбить стекло и проломить голову.
Свойство полипотентности, которое означает, что одна и та же информация может быть использована для решения самых разных задач, легче проиллюстрировать, чем доказать, – поэтому его следует рассматривать как аксиому. Свойство полипотентности не отражает семантическую неоднородность информации – семантика любой информации всегда совершенно определенно и однозначно отображается в операторе. Полипотентность не означает также, что на основании одной и той же информации могут быть созданы несколько разных операторов, – такое представление коренным образом противоречит определению информации, приведенному выше (см. главу 1). Все это следует учитывать, обсуждая полипотентность информации.
Из свойства полипотентности следует два вывода, имеющих кардинальное значение для общей теории информации. Проследим эти выводы подробнее, ибо ниже нам неоднократно придется к ним обращаться.
Вывод первый. Располагая некоторой информацией или созданным на ее основе оператором и даже зная, для достижения какой цели эти информация и оператор предназначались, невозможно перечислить все ситуации и цели, для достижения которых с той или иной вероятностью они могут оказаться пригодными. Множество комбинаций «ситуация-цель» можно считать бесконечным, как и то подмножество, в пределах которого данную информацию можно использовать для осуществления целенаправленных действий. Если семантику рассматривать как сущность информации, а результат целенаправленного действия – как проявление этой сущности в данных условиях, то полипотентность будет естественным следствием зависимости этого проявления от условий, т.е. от ситуации и цели. Хорошо известно, что одна и та же сущность может обусловливать множество разных свойств.
Таким образом, любая информация и оператор, на ней основанный, всегда могут получить априори не предполагавшиеся применения. Такое непредсказуемое заранее использование информации может подчас оказаться даже более эффективным и ценным, нежели то, для которого она первоначально предназначалась. В математике подобную ситуацию античные мыслители называли поризмом [13].
Вывод второй. Основываясь на свойстве полипотентности, можно утверждать, что для достижения одной и той же цели в данной ситуации с тем или иным эффектом может быть использовано множество разных информации и основанных на них операторов. Это множество всегда будет открытым, так как априори невозможно перечислить все существующие и все возможные информации, а тем более предугадать, какова будет эффективность их использования в некоторой ситуации.
Принципиальная невозможность перечислить все ситуации и цели, где может получить применение данная информация, а также перечислить все информации, которые могут получить применение для достижения данной цели даже в данной определенной ситуации, и тем более невозможность предугадать последствия этих применений – это характернейшая особенность мира, где царствует информация. С другой стороны, свойство полипотентности – вернейший залог жизнеспособности информации, которая не только сама подвергается постоянной изменчивости, но и, будучи использована для осуществления целенаправленных действий, всегда и неизбежно вызывает непредвидимые изменения самого пространства режимов. Как мы увидим ниже, свойство полипотентности, наряду с изменчивостью, играет важнейшую роль в эволюции информации.
Ценность информации
Помимо количества информации, измерять и выражать в цифрах можно и такое ее свойство, как ценность. В основе определения количества информации, как мы помним, лежат ее фиксируемость и инвариантность, а также «правило Шеннона», задающее емкость информационной тары. В основе определения ценности информации лежат такие ее свойства, как действенность и полипотентность, а также предложенный А. А. Харкевичем [14] способ исчисления ценности через приращение вероятности достижения той цели, для чего данная информация используется. Приращения вероятности, однако, могут быть рассчитаны по-разному, и нам предстоит сделать выбор между возможными вариантами.
Если, согласно определению целенаправленного действия (см. [9]), через Р обозначить осуществление события цели в данном пространстве режимов при использовании данной информации, а через р − спонтанное осуществление этого же события, то «приращение вероятности достижения цели» можно выразить и как Р-р, и как Р/р, и как log(P/p). Учитывая, что Р и р могут изменяться от 0 до 1, мы увидим, что в первом случае ценность информации С может варьировать в пределах от плюс 1 до минус 1, во втором – от нуля до бесконечности, а в третьем – от минус бесконечности до плюс бесконечности. Исходя из удобства дальнейшего изложения, примем такой способ исчисления ценности информации, чтобы ее величина изменялась от 0 до плюс 1. Для этого ценность можно выразить через отношение
(15)
Казалось бы, этого же интервала изменчивости С можно достигнуть, положив Р < р и выражая С = Р-р или С = Р. В первом из этих случаев, однако, при приближении р к Р величина С будет стремиться к 0, даже если р = 1 и, следовательно, далее возрастать вообще не может. Во втором же случае нижнее значение С будет определяться величиной Р, а не свойствами информации.
Против определения (15) ценности информации можно возразить, что она не принимает отрицательных значений, т.е. не учитывает ситуацию с дезинформацией, когда Р <р. Но такая ситуация может возникнуть лишь в двух случаях. Один из них – это когда объект, поставляющий или использующий информацию, стремится уменьшить вероятность осуществления некоторого события. Тогда цель для него неосуществление Z, спонтанная вероятность чего p' = 1-p, и в этом случае Р, которое меньше, чем р, будет превышать значение р', и, следовательно, требование С ≥ 0 будет соблюдено. Второй случай – это ошибочное использование неподходящей информации, что требует коррекции, а не логического анализа. Ситуация с «сознательным обманом» целиком включается в первый случай.
Обосновав таким образом избранную нами меру ценности информации, рассмотрим более внимательно содержание этого понятия.
Во-первых, и это чрезвычайно важно, можно утверждать, что в отличие от количества ценность информации невозможно задать одним единственным числом. Ценность каждой информации имеет определенное значение лишь по отношению к некоторой данной ситуации и данной цели. Из свойства же полипотентности следует, что по отношению к разным парам «ситуация-цель» ценность любой информации может варьировать в самых широких пределах, от 0 до 1. Тогда разные информации, следовательно, различаются не единичными значениями их ценности, а распределением этих величин по множествам ситуаций и целей, а ценность некоторой данной информации может быть полностью задана только в форме такого распределения. Распределение это будет представлено множеством точек, а не непрерывной поверхностью, так как множества ситуаций и целей всегда будут оставаться открытыми. Следовательно, мы никогда не сможем иметь исчерпывающие сведения о ценности какой-либо информации, – сколь бы ни представлялась она ничтожной, всегда остается надежда, что могут существовать такие ситуации и цели, где эта ценность близка к максимальной, т.е. к 1.
Посмотрим теперь, как ценность информации может быть связана с ее количеством. Очевидно, что этот вопрос может иметь определенный ответ тоже лишь по отношению к определенной паре «ситуация-цель», причем для разных информации такие ответы могут быть разными. В общем же виде ответ на этот вопрос можно представить себе как множество точек в системе координат (С, В), которое будет иметь определенное расположение только по отношению к данной паре «ситуация-цель» или в данном «информационном поле» (рис. 1).
Будем рассуждать следующим образом. Примем, что чем сложнее преобразование (12), описывающее целенаправленное действие, т.е. чем больше «шагов» (или операций) требуется для осуществления события цели в данной ситуации, тем большее суммарное количество информации должно быть использовано для его осуществления. Отсюда следует, что хотя в общем случае С не зависит от В, для каждого конкретного информационного поля должна существовать такая область значений С, которые могут быть достигнуты только при В, равных или превышающих некоторую критическую величину. Зависимость от В максимально возможных (для данных В) значений ценности С для любого информационного поля будет описываться кривой, монотонно возрастающей от 0 до 1. Эта кривая разделит данное информационное поле на две зоны: «пустую», расположенную слева, и «заселенную», расположенную справа, где располагаются значения ценностей информации, в той или иной степени пригодных для осуществления данного целенаправленного действия (т.е. для которых 0<С<1). Очевидно, что разные значения С для информации, имеющих одно и то же количество В, будут обусловлены различиями в их семантике.
Существование зависимости, описываемой на рис. 1 кривой С(В), позволяет поставить вопрос о формах связей между степенью сложности целенаправленного действия, с одной стороны, и спецификой оператора, с другой, а также между структурными особенностями оператора и количеством кодирующей его информации. Ниже мы обсудим эти вопросы, хотя окончательное их решение вряд ли получим. Сейчас же ограничимся предположением, которое выглядит довольно правдоподобно. Допустим, что количество информации В определяет степень сложности оператора независимо от специфики его устройства, обусловливаемой семантикой. Другими словами, чем больше количество информации В, необходимой для построения данного оператора, тем сложнее он устроен.
Рис. 1. Схема, показывающая зависимость ценности информации С от ее количества В.
Эффективность информации
Введем теперь понятие «эффективность информации» [2], которую определим как
(16)
Очевидно, что, как и в случае с ценностью, эффективность любой информации может быть полностью задана только в форме распределения на множестве информационных полей. Для каждого информационного поля должна существовать кривая А(В), имеющая один максимум и две (левую и правую) нисходящие ветви, стремящиеся к нулю (рис. 2). Такова форма кривой, под которой располагаются значения эффективности информации, «обитающих» в данном информационном поле. Эта зона «заселена» информациями, пригодными для достижения соответствующей цели в данной ситуации. Так как форма этой зоны имеет принципиальное значение для проблемы динамики информации, рассмотрим ее более внимательно.
Рис. 2. Схема зависимости Эффективности информации А от ее количества В
Еще раз о бренности информации и ее изменчивости
Как уже отмечалось, свойство бренности информации обусловливается материальностью, – а следовательно, и бренностью – ее носителей. Следовательно, бренность разных информации определяется только и исключительно свойствами тех носителей (а также их окружения), которые были использованы для их записей и хранения. Соответственно бренность одной и той же информации, но зафиксированной на разных носителях, может сильно различаться: так, носители, с которых считывается информация, могут иметь короткий период полужизни, а используемые для ее хранения – очень длинный.
Исчезновение информации, благодаря ее бренности, может быть описано «кривыми отмирания», параметры которых будут определяться свойствами носителей.
Условием неограниченно-длительного существования информации из-за ее бренности является только периодическая ее репликация или, точнее, требование, чтобы скорость репликации была не меньше (а точнее – больше) скорости ее деградации.
Из последнего заключения можно сделать интересный вывод. Если принять, что скорость репликации одного и того же количества информации не зависит от ее семантики и в среднем есть величина постоянная, то условием длительного существования информации будет уменьшение бренности носителей с возрастанием количества зафиксированной в них информации. Носители вместе с компонентами информационных систем, обеспечивающими их сохранность, можно характеризовать степенью надежности. Тогда можно сформулировать такое утверждение: надежность носителей информации должна возрастать с увеличением их информационной емкости (что может происходить как монотонно, так и ступенчато). Нетрудно видеть, что это утверждение связывает количество информации с требованиями к физическим свойствам носителей, используемых для ее фиксации.
И еще одно следствие из бренности информации. Исчезать данная информация может двояко – разрушаясь и изменяясь. Во втором случае каждый акт изменчивости будет, с одной стороны, актом гибели старой информации, а с другой – актом рождения новой, чем-то отличающейся от исходной. Можно сформулировать положение, согласно которому изменение информации совершается только по одному из трех способов: замена одних букв на другие без изменения их общего числа; выпадение одной или нескольких букв; вставка одной или нескольких букв. Такие изменения могут иметь разные механизмы, в зависимости от специфики информационных систем. Вклад разных видов изменчивости и разных ее механизмов в общий процесс изменения информации также зависит от специфики информационных систем. Однако, так как специфика информационных систем сама определенным образом связана с количеством кодирующей их информации, можно утверждать, что характер и механизмы информационной изменчивости должны закономерно изменяться с ростом количества информации.
Изменяться информация может, будучи в двух разных состояниях – и в «покоящемся» состоянии, и в состоянии репликации. В первом случае причиной изменчивости могут быть различные повреждения ее носителей, а во втором, помимо этого, и «ошибки репликации». Таким образом, репликация играет в жизни информации двоякую роль: и как способ продления ее существования, и как фактор, повышающий ее изменчивость, с последующим продлением существования уже новой информации.
То обстоятельство, что без репликации достаточно продолжительное существование информации невозможно, а с другой стороны, тот факт, что редупликация информации в результате редупликации содержащего ее носителя может осуществиться лишь в ходе соответствующего целенаправленного действия, – означает, что любая информация всегда и прежде всего есть информация о способе своей редупликации в том или ином пространстве режимов. Следовательно, новые видоизмененные информации будут жизнеспособными тогда и только тогда, если и когда эти изменения относятся к способам редупликации и/или к условиям, где она может осуществляться. Любые другие изменения семантики информации нежизнеспособны и рано или поздно будут элиминированы.
Учитывая вышесказанное, можно сформулировать следующее утверждение. Любая информация неизбежно обречена на гибель. Бесконечно долго может существовать лишь последовательность вновь и вновь возникающих информации с изменяющейся семантикой, определяющей или способ редупликации этой информации, или те условия, при которых такая редупликация может осуществляться.
Полезность и истинность информации
Термины «полезность» и «истинность» обычно применяют по отношению к тому виду информации, которую мы назвали логической, но в равной мере они приложимы и к поведенческой информации, и к генетической. Посмотрим, какие особенности информации эти термины отображают и как они связаны между собой.
Полезность информации предполагает, что она кому-нибудь нужна, может быть для чего-то использована. Это «что-то», конечно, есть целенаправленное действие. Полезность информации, следовательно, проявляется в возможности ее использования для достижения той или иной цели. Из свойства полипотентности следует, что для чего-нибудь полезной может оказаться любая информация. Это делает вполне оправданным добычу и хранение информации про запас; авось для чего-нибудь пригодится... Любопытство, присущее не только человеку, но и многим другим животным, – это эмоция, удовлетворение которой и обеспечивает «запасание информации впрок».
Полезность информации предполагает существование некоторого объекта, который может этой информацией воспользоваться. Очевидно, что именно по отношению к такому объекту имеет смысл понятие «цель»: ведь то, что для такого объекта является целью его деятельности, для других может быть совершенно не нужным. Информация же, точнее, ее полезность, связана не с выбором цели, а с ее достижением: на выбор конечной цели или на целеполагание сама по себе информация влиять не может. Таким образом, можно сказать, что полезность информации определяется возможностью ее использовать для достижения какой-либо цели. Из полипотентности следует, что для чего-нибудь полезной может быть любая информация, хотя это далеко не всегда очевидно.
Операции над информацией
Как отмечал еще Л. Н. Серавин [9], информация, не будучи «ни материей, ни энергией», не подчиняется законам сохранения. Так, реализация или трансляция информации не обязательно сопровождается исчезновением ее исходного образца, а в случае гибели информация может просто исчезать, не превращаясь в другую информацию. Такое неподчинение законам сохранения ярко проявляется и при осуществлении над информацией двух операций – суммирования и деления. Это является следствием того, что информация характеризует всю систему в целом. Следует подчеркнуть, что информация поддается только этим двум операциям, ибо никаких других операций над ней производить невозможно.
Будем называть суммированием объединение двух или более записей информации в единый текст, а делением – разбивку какого-либо текста на два или более фрагмента. Очевидно, что и то, и другое предполагает, прежде всего, осуществимость соответствующих операций над носителями информации и, следовательно, идентичность природы этих носителей. Другими словами, можно утверждать, что прежде чем осуществлять суммирование нескольких информации, их следует перевести в единую систему записи. Очевидно также, что как при суммировании, так и при делении информации общая емкость тары должна оставаться постоянной, т.е. Н1 + Н2 + ... = (Н1 + Н2 + …).Аддитивность емкости тары, однако, отнюдь не означает аддитивности количества самой информации. Вопрос, следовательно, можно сформулировать так: что происходит при суммировании или делении информации с их количеством, ценностью, эффективностью и семантикой, с их полезностью и истинностью?
Очевидно, что при суммировании общее количество информации может заключаться в интервале от общей емкости информационной тары до нуля, аддитивность же самой суммированной информации может встречаться лишь как частный случай. Особый интерес представляет ситуация, когда суммарная информация оказывается большей, чем сумма информации, содержащихся в слагаемых, т.е. когда как бы возникает некая добавочная информация. На самом деле, однако, никакого возникновения информации «из ничего» не происходит, – просто информация, не будучи «ни материей, ни энергией», не подчиняется принципу аддитивности, в отличие от емкости ее носителей. Крайний вариант этой ситуации, когда в суммируемых компонентах информации вообще не содержалось, т.е. ни в одном из них ее не было, а в сумме она появляется, – этот вариант относится уже к проблеме возникновения информации и для своего рассмотрения требует, прежде всего, умения отличать информацию, содержащуюся в сообщении, от пустой последовательности букв. При суммировании возможно также исчезновение информации, хотя в суммированных фрагментах она содержалась в достаточном количестве.
Сходные ситуации могут наблюдаться и при делении какого-либо сообщения, содержащего информацию, на фрагменты: количество информации в каждом фрагменте может оказаться равным любой величине, заключенной между емкостью соответствующей информационной тары и нулем. Сумма информации, содержащихся в фрагментах, может быть большей, а может быть и меньшей, вплоть до нуля, по сравнению с количеством информации, содержащейся в исходных сообщениях.
Таким образом, и суммирование, и деление информации может приводить как к ее уменьшению, вплоть до полного исчезновения, так и к увеличению ее количества, вплоть до полного заполнения ею информационной тары. Обе эти операции, следовательно, могут рассматриваться как возможные пути возникновения дополнительной информации.
Очевидно, что к ценности и эффективности информации принцип аддитивности вообще неприложим, можно говорить лишь об изменениях форм распределений, описывающих то и другое. На этот счет можно высказать лишь одно утверждение: никаких предсказаний здесь априори делать нельзя, и каждый конкретный случай требует своего рассмотрения. Это же полностью относится к семантике, полезности и истинности информации – все эти характеристики, как и рассмотренные выше, при суммировании или делении информации могут изменяться во всем характерном для них диапазоне значений, вне какой бы то ни было зависимости одна от другой. Это еще раз подтверждает сделанное выше утверждение, что суммирование и деление, т.е. операции над информацией, – один из возможных путей возникновения новой информации. Априорная непредсказуемость характеристик новой информации, образующейся при суммировании или делении, играет важную роль в ее эволюции.
Классификация информации
Приступая к проблеме классификации информации, прежде всего, по-видимому, следует раз и навсегда отказаться от попыток выделить элементарные единицы информации: понятие дискретности или непрерывности к информации, скорее всего, вообще неприложимо. Из всего сказанного выше следует, что информацию можно классифицировать лишь по особенностям проявления тех или иных ее свойств, и в первую очередь ее фиксируемости и действенности.
По фиксируемости или, точнее, в соответствии с природой носителей мы различали уже три вида информации – генетическую, «записанную» в молекулах нуклеиновых кислот; поведенческую, фиксируемую генетическими компонентами нервных клеток, и логическую, проявляющую себя в форме человеческого знания или в форме идей, носителем которых помимо нервных клеток служит язык, т.е. устная или письменная речь. Количественно каждая из этих информации может быть ограничена только сверху: никакой носитель не может содержать больше информации, нежели позволяет его емкость. Поэтому верхней границей генетической информации служит максимально-возможное содержание в клетках ДНК, поведенческой – максимальное содержание в одном организме нервных клеток, а логической – максимально возможная суммарная емкость носителей информации тех технических систем, которые используются человеком для ее записи и хранения. Каждый из этих трех видов информации может существовать в форме независимых дискретных субъединиц: хромосомы в живой клетке, нервная система того или иного животного, отдельные экземпляры книг в библиотеке. Все это свидетельствует о возможности разделить тот или иной вид информации на отдельные фрагменты, что, однако, отнюдь не отражает дискретность самой информации.
По своей действенности информация, относящаяся к каждому из этих трех видов, может быть как завершенной, так и незавершенной. Это, конечно, также не свидетельствует ни о ее дискретности, ни о ее континуальности. Завершенной будем называть такую информацию, которой достаточно для построения какого-либо оператора. Незавершенная – это информация, на основе которой построить целостный оператор невозможно; незавершенная информация, следовательно, может кодировать лишь какой-либо фрагмент оператора или какой-либо этап его построения. Условность такой классификации, однако, связана с тем, что никакая информация не может сама построить кодируемый ею оператор, – для этого она должна быть включена в соответствующую информационную систему. Поэтому в одной информационной системе какая-либо информация может проявлять себя как завершенная, а в другой – как незавершенная, и далеко не всегда просто решить, является ли это отражением особенностей самой информации или воспринявшей ее информационной системы.
Необходимость для использования информации адекватных ей информационных систем предполагает возможность классификации и по этому признаку, т.е. по особенностям таких информационных систем. Однако этот подход к классификации информации предполагает достаточные знания о самих информационных системах, о чем речь пойдет только в следующей главе.
Наконец, остается еще одна возможность классификации информации через специфику кодируемых ею операторов. Это, пожалуй, будет наиболее объективный подход к классификации информации, так как он включает в себя и все другие выше-рассмотренные подходы. Реализован этот подход будет ниже, при рассмотрении проблем, связанных с возникновением и эволюцией информации. Забегая вперед, можно лишь сказать, что результатом такой классификации будут все те же три вида информации, которые мы выделили в самом начале этой работы.
Информация и объекты материального мира
Теперь, когда мы достаточно знаем о свойствах и особенностях информации, рассмотрим взаимоотношения между информацией и теми объектами окружающего нас мира, которые мы называем «материальными» или «физическими», т.е. телами и потоками энергии. Напомним, что между этими объектами и информацией существует та принципиальная разница, что все материальные объекты могут восприниматься нашими органами чувств (либо непосредственно, либо с помощью специальных приборов), информация же сама по себе органами чувств не воспринимается, а «считывается» лишь соответствующим блоком ее собственной информационной системы.
Нетрудно видеть, что между материальными объектами нашего мира и информацией могут быть три вида отношений, благодаря чему эти объекты можно подразделить на три класса. Класс А – это объекты, являющиеся носителями информации. Класс Б – объекты, о которых имеется или может быть создана информация. Класс В – объекты, для создания которых требовалась или требуется информация. Такая классификация условна в том смысле, что объекты из каждого класса могут, вообще говоря, относиться (и, как правило, относятся) еще к одному или двум другим классам. В то же время эта классификация в каждом данном отношении совершенно определенна. Действительно, никакая информация не может существовать, не будучи зафиксирована в каком-либо из объектов класса А. Объекты класса Б являются первичными по отношению к той информации, которая может быть о них создана, но существуют независимо от какой бы то ни было информации. Объекты класса В являются вторичными по отношению к описывающей их информации и не могут возникать без ее участия, – соответствующая же информация в своем существовании от них не зависит.
Связь объектов всех трех классов с информацией можно рассматривать в трех аспектах: в аспекте первичности (о чем уже шла речь), в аспекте количества и в аспекте качества или семантики.
Действительно, вполне правомочно поставить вопрос, как связана степень упорядоченности или сложности физических объектов с той информацией, которая может быть в них зафиксирована; может быть о них создана; требуется для создания таких объектов. Особый интерес при этом приобретает ситуация, когда к классу Б относятся объекты, принадлежащие к классу В, т.е. когда искусственно созданные объекты служат для того, чтобы воссоздать информацию, которая была использована при их построении.
Прежде всего посмотрим, как связаны с информацией объекты класса А – ее носители. Первое утверждение относительно объектов класса А можно сформулировать так: физические свойства носителя непосредственно определяют его информационную емкость (или верхнюю границу количества той информации, которую он может содержать).
Второе утверждение непосредственно следует из способа фиксации информации на носителях и состоит в том, что каждый данный носитель в пределах данного количества может содержать информацию любой семантики. Это – другая сторона свойства инвариантности информации по отношению к физическим носителям (см. глава 2. «Инвариантность информации по отношению к носителям»).
Третье утверждение непосредственно относится к продолжительности жизни информации, зафиксированной на данном носителе, и рассматривалось в разделе о бренности информации (глава 2. «Бренность информации»). Смысл его состоит в том, что продолжительность жизни каждой данной информации (точнее, данного ее экземпляра) определяется только физическими особенностями носителя и внешними по отношению к нему условиями. Здесь, однако, есть один аспект, заслуживающий особого внимания: чем больше количество данной информации, тем большим по размерам (или протяженности) должен быть ее носитель. Это, по крайней мере, в некоторых случаях может влечь за собой большую уязвимость (или хрупкость) носителя и тем самым влиять на степень бренности содержащейся в нем информации. Но и в этом случае увеличение бренности информации с ростом ее количества будет определяться свойствами носителя, требующегося для ее записи, а не самой информацией как таковой.
Таким образом, физические особенности объектов класса А -носителей информации – определяют то количество информации, которое может в них содержаться, и ее бренность. Первое обстоятельство объясняет, почему для измерения количества информации можно использовать величины, характеризующие именно те свойства таких объектов, которые допускают их использование в качестве носителей информации. Мы уже видели (см. глава 2. «Фиксируемость информации. Ее носители»), что в качестве таковых могут выступать любые физические объекты –формальных ограничений здесь нет.
Связь с информацией объектов класса Б издавна анализируется той областью философии, которую называют «теорией познания». В самом общем виде эту связь можно выразить так: объекты класса Б полностью и однозначно определяют количество и семантику той информации, которая может быть о них создана. Это утверждение, однако, внутренне порочно: ведь мы знаем о разных объектах лишь то, что мы о них знаем, а это и есть созданная о них информация. Мы должны, следовательно, допустить существование некоторого множества свойств, присущих какому-либо объекту, которые нам еще не известны. В этом случае можно утверждать, что создаваемая о подобных объектах информация асимптотически стремится к этому множеству. Но мы никогда не сможем узнать, насколько она к нему приблизилась! Решение этого вопроса тесно связано с принятием посылки либо о неисчерпаемости, либо об исчерпаемости познания, т.е. посылки о существовании или несуществовании абсолютной истины. Приняв посылку о неисчерпаемости познания и, что равносильно этому, об относительности всех истин, мы придем к выводу, что о любом объекте может быть создано бесконечное количество семантически определенной информации, что бессмысленно. Более эвристичной выглядит посылка об исчерпаемости познания любого объекта и, следовательно, о существовании абсолютных истин, – посылка, хорошо отражающая системный подход к анализу объектов материального мира. Полной информацией о том или ином объекте можно называть такую информацию, располагая которой можно этот объект воссоздать в принципе неограниченное число раз. Следовательно, полная информация и есть тот предел, к которому стремится как количественно, так и семантически информация, создаваемая об объектах класса Б. Алгоритмическое представление об информации [15], следовательно, предполагает исчерпаемость познания любого конкретного физического (или материального) объекта.
Теперь нам остается рассмотреть связь с информацией объектов класса В – так называемых искусственных объектов, существование которых определяется кодирующей их информацией. Утверждение, согласно которому сложность строения и специфика таких объектов однозначно определяется количеством и семантикой этой информации, будет верным лишь отчасти, ибо большую роль здесь должно играть то устройство, которое реализует информацию в данный объект. Следовательно, такой объект всегда и неизбежно структурой своей отображает несколько большую по количеству и семантически более богатую информацию, нежели та, которая была использована для его создания – или, точнее, которая представляет собой алгоритм его построения. Это позволяет высказывать утверждение, что объекты класса Б определяются информацией лишь в той мере, в какой они соответствуют цели, для которой их создают, – ибо такие объекты, являющиеся искусственными, создаются всегда и только с какой либо целью. Это же приводит нас к вопросу о существенных свойствах таких объектов.
Возможность создания полной информации о естественных объектах означает принципиальную возможность их искусственного построения. Такую ситуацию по отношению к нашей Вселенной рассматривал С. Лем в книге «Сумма технологий» [16]. Феноменологическая неразличимость искусственного и естественного миров, однако, не означает их принципиальной неразличимости: искусственное создание физических объектов предполагает предсуществование отображающей их информации, а естественно возникающие объекты далеко не всегда в этом нуждаются.
Таковы в основных чертах соотношения между информацией и объектами материального мира.
Литература
1. Лукреций Кар Т. О природе вещй. М., Изд. АН СССР, т. 1, 1946.
2. Корогодин В. И. Биофизика, 1983, т. 28, в.1, С. 171-178.
3. Моисеев Н. Н. Человек, среда, общество. М., «Наука», 1982.
4. Моисеев Н. Н. Алгоритмы развития. М., «Наука», 1987.
5. Винер Н. Кибернетика, или управление и связь в животном и машине. М., Советское радио, 1968.
6. Кордюм В. А. Эволюция и биосфера. Киев, «Наукова думка», 1982.
7. Хесин Р. Б. Непостоянство генома. М., «Наука», 1984.
8. Эйген М., Шустер П. Гиперцикл. М., «Мир», 1982.
9. Серавин Л. Н. Теория информации с точки зрения биолога. Л.,Изд. Лен.унив., 1973.
10. Дубровский Д. И. Информация, сознание, мозг. М., «Высшая школа», 1980.
11. Корогодин В. И. Информация и феномен жизни. Пущино, 1991.
12. Севастьянов Б. А. Ветвящиеся процессы. М., «Наука», 1971
13. Грязное Б. С. Природа, 1974, №4, С. 60-69.
14. Харкевич А. А. О ценности информации. В кн.: Проблемы кибернетики, в. 4, М., Физматгиз, 1960, С. 53.
15. Колмогоров А. Н. Теория информации и теория алгоритмов. М., «Наука», 1987.
16. Лем С. Сумма технологий. М., «Мир», 1968.
ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Реализация информации. Операторы и информационные системы
Выше неоднократно упоминалось о связи информации с операторами и информационными системами. Рассмотрим эту проблему более внимательно.
Начнем с утверждения, что хотя информация – объект не материальный, операторы всегда и обязательно – объекты материальные, т.е. реальные физические тела, которые могут, и весьма существенно, влиять на ход событий в окружающем их реальном физическом мире. Этот факт позволяет нам выделить три вопроса и сосредоточить на них внимание: как происходит реализация информации в операторы? какими показателями можно характеризовать операторы? и как связаны особенности информации с характеристиками кодируемых ею операторов?
Вопрос о реализации какой-либо информации в оператор предполагает, прежде всего, однозначное отображение оператора в этой информации, а также существование механизмов, реализующих это отображение. При рассмотрении этого вопроса мы будем опираться на работы А. Н. Колмогорова [1], посвященные определению понятия «информация» и проблеме отображения одного множества другими.
Действительно, любую информацию можно представить себе как некоторое множество знаков или символов, однозначно отображающее другое множество, в нашем случае – компоненты будущего оператора. Существует теорема, согласно которой отображающее множество всегда менее сложно, нежели отображаемое (т.е. содержит меньшее число компонентов), но этот разрыв уменьшается по мере увеличения сложности отображаемого множества, так что в конце концов «отобразить» суперсложное множество можно лишь одним путем – полностью его воспроизведя. Можно предположить, что с информацией и операторами дело обстоит иначе. Во-первых, сама информация, по-видимому, относится к классу таких объектов, которые невозможно отобразить более простыми объектами; во всяком случае, когда информация представлена в максимально-компактной форме, ее невозможно «записать» еще более компактно. Отсюда, кстати, следует, что информацию, независимо от ее количества и семантики, невозможно отобразить иначе, как точно ее скопировав. Во-вторых, можно думать, что пары объектов «информация и кодируемый ею оператор» относятся к такому классу, где степень сложности отображаемого объекта возрастает тем быстрее, чем больше сложность объекта отображающего. Иными словами, сложность оператора возрастает значительно быстрее количества отображающей его информации, и с ростом количества кодирующей информации разность между сложностью этой информации и соответствующих операторов не уменьшается, а все более возрастает. На примере живых организмов в этом легко убедиться, сопоставив зависимость массы организмов от количества ДНК в гаплоидных наборах их хромосом. Не исключено, что этот феномен имеет прямое отношение к замечанию А. Н. Колмогорова, что даже при достаточно простой структуре отображающего множества программа его реализации может быть столь сложной, что полное ее осуществление практически невозможно.
Вероятно, многие из отмеченных выше трудностей и противоречий легко разрешаются, если учитывать предельную ситуацию, когда отображение оператора в информации представляет собой не что иное, как программу его построения, заданную максимально компактным образом. Условность записи такой программы (т.е. ее запись знаками или символами) исключает непосредственное воспроизведение по ней оператора, – это становится возможным только благодаря специальной разверстке такой программы во времени, осуществляемой специальным устройством той информационной системы, к которой информация относится. Поэтому и точность реализации здесь может варьировать, – или, правильнее сказать, точность реализации будет определяться нормой реакции реализующего устройства на сопутствующие факторы. Именно в этом смысле информацию можно рассматривать как алгоритм для построения оператора.
Мы уже неоднократно подчеркивали, что никакая информация неспособна самостоятельно индуцировать построение оператора, что, впрочем, непосредственно следует из нематериальности ее природы. Информация может быть реализована в оператор только в своей информационной системе благодаря существованию считывающих и реализующих устройств. Именно считывающее устройство ставит в однозначное соответствие знаки или символы, «заполненные» информацией, с теми или иными элементарными действиями, производимыми реализующим устройством над ресурсами, содержащимися в окружающей среде, что и приводит к созданию оператора. Это обстоятельство, между прочим, очень хорошо иллюстрирует принципиальное значение последовательности считывания информации в ходе ее реализации.
Основные типы операторов мы уже упоминали. Это – соматические компоненты живых организмов, поведенческие реакции животных с развитой нервной системой, а в случае человеческих сообществ – присущие им технологические комплексы. Помимо таких «завершенных» операторов, составляющих вместе с относящейся к ним информацией завершенные информационные системы, существует множество информации и операторов промежуточных, или, точнее, соподчиненных, типов, иерархии которых и представляют собой завершенные операторы. Такие субоператоры призваны выполнять целенаправленные действия, являющиеся фрагментами или отдельными элементарными этапами завершенных целенаправленных действий, осуществляемых завершенными операторами. Степень соподчиненности операторов можно проследить в разных конкретных случаях только при рассмотрении всей системы в целом или хотя бы системы следующего после данного оператора более высокого ранга, но не рассматривая разные операторы изолированно от других, с ними сопряженных.
Таким образом, мы подошли к возможности дополнить наши представления об информационных системах, изложенные выше (см. главу 2), в двух важных аспектах: такие системы должны включать в себя как считывающие и реализующие устройства, так и продукты их деятельности операторы. Собственно, мы могли бы называть «завершенным оператором» всю совокупность неинформационных компонентов информационной системы, но это будет неверно, ибо она всегда содержит (хотя бы временно) считывающие и реализующие устройства, предшествующие по отношению к вновь создаваемым на основе некоторой данной информации его компонентам; даже если некоторые новые компоненты и будут просто повторять старые, это повторение окажется «молчащим», предназначенным только для следующего информационного цикла.
Иерархическое разделение информационных систем на информационные, считывающее-реализующие и операторные субсистемы прекрасно иллюстрируется следующим обстоятельством. Информационные системы можно разбить на два больших класса. Один из них – это информационные системы 1-го рода, все три компонента которых настолько тесно соединены друг с другом, что представляют собой единое целое. Это – живые организмы, от клеток до человека. Второй тип – информационные системы 2-го рода, где информация, считывающе-реализующие устройства и операторы могут существовать и существуют пространственно разобщенно друг от друга, хотя функционировать и развиваться способны лишь совокупно. В наиболее завершенной форме – это человеческие сообщества, где информация представлена в виде книг или других систем записи, в роли считывающих и реализующих устройств нередко выступают сами люди, а в качестве супероператоров – технологии.
Об иерархии в информационных системах
Б. Б. Кадомцев [2] в своей книге «Динамика и информация» (1997) указывает на иерархию в физических информационных системах. Он проводит следующие рассуждения.
Каждая открытая система имеет приток энергии Р и вещества М. Энергия должна поступать в систему в организованной форме, так что вместе с энергией и веществом в систему вводится негэнтропия (-Si). Из системы выводятся во внешнюю среду отходы в виде вещества М и возрастания энтропии внешних систем (-Se). Если система не имеет внутренней структуры, то она ведет себя как однородная система, например горная река.
В более сложных системах возможно расслоение на две тесно связанные подсистемы: динамическую и информационную (управляющую). Структурные элементы, которые могут влиять на динамику системы сравнительно малыми возмущениями, выделяются в структуру управления. Таким образом, сложные динамические системы расслаиваются на два уровня иерархии. Подсистема управления может откликаться на смысловую часть приходящих сигналов и вырабатывать управляющие сигналы в динамическую подсистему. Управляющий блок может иметь связь с несколькими динамическими подсистемами. Управляющий, или информационный, блок может использовать негэнтропию, передаваемую из динамических подсистем, либо иметь свой источник, связанный с внешней средой. В случае живых организмов негэнтропией является пища, а для получения информации используется, например, свет.
Б. Б. Кадомцев отмечает, что «для информационного поведения сложных физических систем более важной является структурная сложность и структурная иерархия, а не иерархия элементарных уровней (частицы, атомы, молекулы, тела). Элементы информационного поведения появляются даже у микрочастиц в виде коллапсов волновых функций, а по мере укрупнения и усложнения структур к ним добавляются неравновесные коллективные параметры порядка, играющие роль динамических переменных» (стр. 331).
Обратимся к живой клетке. Здесь впервые встречается обособленный генетический «управляющий» аппарат (геном клетки). Он реагирует на сигналы из внешней и внутриклеточной среды, связан через трансляцию (см. возникновение генетической информации) с аппаратом гетерокатализа, который обеспечивает построение динамического оператора. В «динамическом блоке» используются вещество и энергия внешней среды. В схеме самовоспроизводящегося автомата фон Неймана, являющегося аналогом живых организмов, присутствуют управляющий информационный блок и динамический, для построения оператора использующий ресурсы внешней среды. Все социальные структуры и сельское хозяйство построены на тех же иерархических принципах.
Универсальный автомат фон Неймана
Информация, заключенная в своем носителе, сама по себе пассивна: она неспособна ни участвовать в целенаправленном действии, ни перейти на другой носитель, ни осуществить собственное копирование. Чтобы эти события, обеспечивающие само существование информации, стали возможны, требуется наличие специальных материальных объектов – устройств или «машин», которые «умеют» воспринимать или создавать информацию, считывать ее, обеспечивать ее трансляцию с одного носителя на другой, ее копирование, создание кодируемого ею оператора, а также осуществление других действий, необходимых как для выявления присущих информации свойств, так и для обеспечения ее дальнейшего существования. Отдельные операции, совершаемые посредством этих устройств с информацией или при ее участии, можно назвать элементарными информационными актами, их совокупность – информационным процессом, а совокупность устройств, обеспечивающих осуществление такого процесса – информационной системой. Очевидно, что вне информационной системы информация не в состоянии выявить ни одного своего свойства, кроме бренности, – но даже бренность информации здесь выступит не явно, а лишь как следствие разрушения ее носителей. Другими словами, вне информационной системы не только информация обречена на диссипацию, но и само понятие «информация» утрачивает всякий смысл.
Очевидно, что все устройства, способные обеспечивать осуществление элементарных информационных актов, так же как и слагаемая ими информационная система, есть не что иное, как операторы, создаваемые на основе некоторой информации, – спонтанно они образовываться не могут. Возникает известный парадокс яйца и курицы: что первично, информация или ее операторы? Попробуем выяснить, каким минимумом свойств (или особенностей) должна обладать простейшая информационная система, способная обеспечить осуществление полного информационного цикла, от считывания информации до ее воспроизведения. Сделать это нам будет нетрудно ввиду прекрасной разработанности этого вопроса – следует лишь обратиться к идеям Дж. фон Неймана, относящимся к самовоспроизводящимся автоматам [3].
В сентябре 1948 г. на симпозиуме «Механизмы мозга в поведении», состоявшемся в Калифорнийском технологическом институте, Дж. фон Нейман прочитал лекцию, которая называлась «Общая и логическая теория автоматов». Основной темой этой лекции был общий анализ структуры такого автомата, или, точнее, автомата такого уровня сложности, который позволял бы ему осуществлять самовоспроизведение. Фон Нейман показал, что такой автомат должен состоять из четырех блоков со следующими функциями (рис. 3).
Рис. 3. Блок-схема самовоспроизводящегося автомата фон Неймана. R - ресурсы, черпаемые из окружающей среды. Пояснения в тексте.
Блок А – автоматическая фабрика по сбору сырья (R) и его переработке в продукт, соответствующий задаваемым извне инструкциям (Г). Блок Б – аппарат, снимающий копии с таких инструкций. Блок В – контролирующий аппарат, подключенный одновременно к блокам А и Б: когда в блок В поступают инструкции, они сначала направляются в блок Б для снятия с них копий, а затем – в блок А, где уже осуществляются соответствующие операции по изготовлению конечного продукта из исходного сырья. В случае, если таким «конечным продуктом» является дочерний автомат, он снабжается копией первоначальных инструкций, тогда как их оригинал остается в блоке В исходного автомата. Наконец, имеется еще блок Г, который представляет собой «запоминающее устройство», содержащее полную запись инструкций, обеспечивающих производство блоком А конечного продукта, в том числе дочернего автомата (А+Б+В+Г). Фон Нейман показал, что для создания самовоспроизводящегося автомата структура такого типа является необходимым минимумом. Он предположил также, что такая структура присуща и живым организмам.
Заметим, – и это хочется особенно подчеркнуть, – что автомат фон Неймана можно рассматривать с двух точек зрения. Во-первых, так же, как делал сам Дж. фон Нейман, анализируя принцип устройства самовоспроизводящейся технической системы. В этом аспекте инструкции или информация, содержащаяся в блоке В и используемая блоком А для изготовлении копии такого автомата, играет как бы служебную роль, подчиненную цели создания новых блоков А, Б, В и Г. Но можно весь автомат рассматривать и с другой позиции, когда все неинформационные компоненты его, т.е. блоки А, Б, В и Г, выступают в роли операторов по отношению к кодирующей их информации, а совокупность этих блоков, т.е. сам автомат, есть не что иное, как супероператор, обеспечивающий воспроизведение этой информации.
Дж. фон Нейман, по-видимому, не был знаком с работой Г. Меллера [4], опубликованной за четверть века до его выступления, в которой живой организм рассматривался как устройство, обеспечивающее воспроизведение кодирующих его генетических структур. Если посмотреть на автомат фон Неймана с этой точки зрения, то его с полным правом можно интерпретировать как подобное же устройство, осуществляющее воспроизведение кодирующей его информации. Поэтому-то автоматы фон Неймана и можно рассматривать как простейшие информационные системы. Термин «простейший» здесь используется в смысле «элементарный», чтобы подчеркнуть дальнейшую неделимость системы, способной обеспечивать воспроизведение информации. Очевидно, что анализ строения и функционирования такой информационной системы следует проводить, постоянно имея в виду функциональную специфику отдельных блоков автомата фон Неймана и характер их взаимодействия друг с другом.
Однако это еще не все выводы, которые можно сделать из упомянутой работы Дж. фон Неймана. Используя идеи А. Тьюринга [5], Дж. фон Нейман показал, что теоретически возможен универсальный автомат, т.е. механизм такой степени сложности, которой при наличии правильно заданных инструкций может выполнять операцию любого другого механизма. Иными словами, на определенном этапе эволюции самовоспроизводящихся автоматов для выполнения все более сложных операций уже исчезает необходимость дальнейшего усложнения структуры самих автоматов. Для этого оказывается достаточным задавать все более подробные и сложные инструкции I. Эволюция автоматов уступает место эволюции информации.
Универсальный автомат фон Неймана может, конечно, и самовоспроизводиться. Для этого достаточно включить его в качестве блока А в описанную выше систему. Дж. фон Нейман считал, что именно потому, что логически возможен универсальный автомат, возможна и бесконечная биологическая эволюция. Отпадает необходимость переделывать основные механизмы биосинтеза по мере перехода от простых организмов к более сложным. Необходимо только модифицировать и расширять генетические инструкции. Все, что было открыто нового об эволюции биологических систем после 1948 г., подтверждает правоту Дж. фон Неймана. Очевидно, что эволюцию информационных систем от простейших к универсальным можно вполне трактовать как эволюцию природных автоматов фон Неймана.
Потенциальные и реальные носители информации
Выше мы коротко рассматривали те особенности физических объектов, которые позволяют им быть носителями информации (см. главу 2). Один из выводов, полученных нами, был тот, что в качестве носителя информации может выступать любое физическое тело. Из сказанного в предыдущем разделе следует, однако, что реальный носитель информации должен отвечать еще двум, в дополнение к рассмотренным выше, требованиям: допускать возможность записи информации некоторым данным способом и допускать возможность считывания информации также заранее заданным способом. Иными словами, реальный носитель информации должен строго соответствовать своей информационной системе. Носители информации и информационные системы должны быть комплементарны друг другу.
Рассмотрим четыре типа информационных систем, в соответствии с которыми можно выделить четыре комплементарные им группы носителей информации.
Первая группа – это носители генетической информации. К ним относятся молекулы РНК, односпиральной ДНК и двуспиральной ДНК. «Вписывание» генетической информации в эти носители происходит в процессе трансляции, осуществляемой по матричному принципу, и лишь в качестве исключения (как реликт? или прообраз будущего?) существует система «РНК – обратная ревертаза – ДНК» – пока единственный пример перевода информации с одной системы записи на другую в генетических информационных системах.
Вторая группа – это носители поведенческой информации. Здесь уже следует различать носители, используемые для реализации (и хранения) такой информации, и носители, используемые для ее передачи. Носители, используемые для хранения и реализации поведенческой информации, – это неизвестные пока структуры нервных клеток или нервной системы в целом, с соответствующими считывающими устройствами. Для передачи поведенческой информации используются другие носители: в случае генетически-детерминированных поведенческих реакций – носители первой группы, а в случае поведенческих реакций, приобретаемых в ходе индивидуальной жизни, – электромагнитные (световые лучи) и воздушные (звуки) колебания, а также ряд химических соединений, имеющих специфические запахи. Существуют специальные приспособления – рецепторы –воспринимающие такую информацию и переводящие ее в ту форму записи, которая может сохраняться и быть использована нервной системой.
При рассмотрении носителей второй группы, предназначенных для передачи индивидуальной поведенческой информации, возникает интересный вопрос: в каких ситуациях их можно рассматривать как действительно носители информации, а в каких – как простые «сигналы», т.е. воздействия внешней среды, лишь запускающие реализацию тех или иных предсуществующих информационных программ? Вопрос этот не тривиальный и относится к одной из важнейших особенностей развивающихся информационных систем – к способам обмена информацией. Можно думать, что в эволюции способов обмена поведенческой информацией решающее значение принадлежало использованию рецепторов, первоначально предназначавшихся для совершенно другой цели, а именно для восприятия различного рода внешних воздействий, таких, как световые, звуковые, химические и температурные, которые иногда и называют двусмысленным термином «сигналы». Такие воздействия, или сигналы, могли последовательно играть три разные роли: непреднамеренного свидетельства (следы), преднамеренного свидетельства («Это моя территория!») и примера для подражания. Во всех трех случаях это то, на основании чего у реципиента может создаваться новая информация. Но лишь в третьем случае сигнал превращается в средство (или способ) передачи уже существовавшей информации от донора к реципиенту, приобретая тем самым функцию носителя информации. Разнообразие физических объектов, служащих таковыми во второй группе носителей, как мы знаем, ограничено.
Третья группа – это носители информации, специфически используемые для передачи человеческого знания, за исключением технических систем связи. Помимо носителей информации второй группы сюда относятся все те физические тела, на которых (и с помощью которых) можно записывать сообщения. При огромном разнообразии потенциальных носителей такого рода использование их, во-первых, стереотипно, а во-вторых, всегда играет промежуточную роль, с последующим переводом на носители второй группы. Возникновение языка, однако, в отличие от сигнального типа общения, было прорывом информации за пределы собственных информационных систем как в пространство, так и во время.
К четвертой группе носителей могут быть отнесены те атрибуты технических систем связи, которые не воспринимаются непосредственно органами чувств (как носители второй и третьей групп) и практически не генерируются живыми организмами. Информация, содержащаяся в таких носителях, чтобы быть в такие носители включенной или, чтобы быть воспринятой живыми организмами, требует обязательного трансформирования с помощью технических же систем приема или передачи. Это, прежде всего, электромагнитные колебания диапазона радиоволн, магнитозаписи и т.д. Вовлечение их в информационные циклы не принесло (по крайней мере до сих пор) ничего принципиального нового по сравнению с использованием носителей третьей группы, но чрезвычайно усилило потенции, в них заключавшиеся. Это относится, прежде всего, к скорости и расстоянию передачи информации, к возможностям ее хранения, а также к расширению круга возможных адресатов.
Прием, хранение и передача информации. Память
Таким образом, использование тех или иных потенциальных носителей информации в качестве ее реальных носителей целиком и полностью обусловливается особенностями соответствующих информационных систем. Информационными, как договорились, будем и впредь называть системы, способные самостоятельно осуществлять полный информационный цикл, т.е. воспроизведение кодирующей их информации, а поэтому выступающие по отношению к такой информации как системы, обеспечивающие ее существование. Мы уже говорили, что воспроизведение информации обычно происходит путем самовоспроизведения всей системы. Каждое новое поколение информационной системы призвано воспринимать информацию, для этого подготовленную, сохранять ее до следующего акта воспроизведения, а затем передавать дальше. Эти три элементарных информационных акта являются необходимыми условиями существования любой информационной системы.
Мы помним, что информация сама по себе пассивна. Следовательно, каждый из этих информационных актов нуждается в физическом устройстве, обеспечивающем его осуществление. Помимо этого, каждая информационная система обладает устройством, осуществляющим реализацию информации – построение кодируемых ею таких же систем или их компонентов. Принцип работы реализующего устройства мы рассмотрим ниже, сейчас же отметим, что информация, предназначенная для реализации, может быть записана либо на таком же носителе, что и принимаемая, хранящаяся и передающаяся, либо на носителе какой-либо иной природы. Первый случай достаточно прост и в специальном рассмотрении не нуждается. Второй же случай предполагает существование устройств, осуществляющих перевод информации с одних носителей (систем записи) на другие, а именно на те, которые допускают ее реализацию. Осуществление такого перевода будем называть пониманием информации.
При обсуждении процесса передачи и понимания информации необходимо учесть следующие обстоятельства. Первое: принимающее устройство «поймет» только ту часть сообщения, которая будет адекватна его собственной семантике. Второе – передача информации всегда сопряжена с потерями информации за счет естественных необратимых помех во внешней среде. Для того, чтобы сохранить передаваемую информацию, необходимо увеличить запас информации принимающего устройства. Тогда в процессе записи новой информации часть запаса приемника может быть потеряна из-за диссипативных взаимодействий с внешней средой. Эти замечания накладывают ограничения на принимающие устройства: они должны обладать той же семантикой и большим запасом информации или быть на более высокой иерархической ступени эволюции.
Только существование устройств, осуществляющих перевод информации с одних систем записи на другие, позволяет использовать для передачи, хранения и реализации информации разные носители. Возникновение таких устройств в ходе развития информационных систем было настоящей революцией. Одним из следствий этого было появление носителей с чрезвычайно большой продолжительностью жизни, а затем использование подобных носителей для хранения информации, вне зависимости от особенностей создающих ее и использующих информационных систем. Так возникли «блоки памяти», или «банки данных», предназначенные для хранения информации, запасенной впрок. Другим следствием появления долгоживущих носителей было резкое расширение возможностей обмена информацией между информационными системами с разными способами ее фиксации. На базе того и другого и образовались технические системы связи, положившие начало «великому объединению» многочисленных разрозненных информационных систем в единую суперсистему, свидетелями чего мы и являемся.
Закономерности передачи информации по различным каналам связи достаточно подробно рассматривает классическая или шенноновская математическая теория связи [6], и мы здесь этого касаться не будем. Отметим лишь универсальность этих закономерностей для любых информационных систем. В основе таких закономерностей, помимо рассмотренных выше свойств информации, лежит также принцип линейной последовательности передачи и приема, а также записи информации. Если прибавить к этому еще и линейный принцип считывания информации в ходе ее реализации, то станет ясно, что принцип этот лежит в основе всех трансформаций, которым может подвергаться информация в ходе осуществления информационных процессов.
Таким образом, по особенностям приема, хранения и передачи информации все информационные системы можно подразделить на два класса. Информационными системами 1-го рода будем называть те, где для всех трех основных информационных актов, а также для реализации информации используются одни и те же системы записи или идентичные физические носители. Информационными системами 2-го рода будем называть те, где для осуществления разных информационных актов могут быть использованы и действительно используются разные носители. Переход от первых ко вторым был обусловлен возникновением устройств, обеспечивающих перевод информации с одних физических носителей на носители другой физической природы. Нетрудно видеть, что подразделение информационных систем по этому признаку полностью совпадает со сделанным выше подразделением по признаку «прочности связи» отдельных блоков автомата фон Неймана. Это совпадение, конечно, совершенно естественно.
Считывание и понимание информации
Будем различать считывание информации и ее понимание, восприятие или рецепцию некоторой информационной системой. «Считыванием» будем называть первый этап процессов, завершающихся либо переводом информации с носителей одной физической природы на носители другой физической природы, либо реализацией информации в оператор. «Пониманием», как мы уже говорили, будем называть перевод информации с какой-либо группы носителей на тот носитель (или систему записи), который делает ее пригодной для реализации. Таким образом, понимание информации предполагает возможность ее считывания, хотя само считывание далеко не всегда может сопровождаться ее пониманием. Очевидно, что понимание информации возможно только для информационных устройств 2-го рода, которые способны понимать информацию не только друг друга, но и ту, которая присуща информационным системам 1-го рода. Последние из-за отсутствия у них соответствующих устройств к пониманию чужеродной информации не способны.
Считывание информации может осуществляться двумя способами: когда считываемая информация сохраняется и, следовательно, может считываться неоднократно и когда информация в процессе ее считывания исчезает, разрушаясь буква за буквой или фраза за фразой. Как тот способ, так и другой могут быть использованы и при переводах, и при реализации информации. Очевидно, что реализация информации по второму способу предполагает наличие в этой же информационной системе одной или нескольких интактных копий этой информации, пригодных для введения в систему следующего поколения.
Очевидно, что возникновение устройства, пригодного для считывания информации в ходе ее реализации и являющегося необходимым компонентом любой информационной системы, должно было предшествовать возникновению устройства, пригодного для перевода информации с носителей одной природы на носители другой природы. Вероятнее всего, первое устройство явилось прототипом второго или даже прямым его предшественником, так как перевод любой информации можно, вообще говоря, трактовать как вырожденную ее реализацию.
Репликация информации: матричный принцип
Матричный принцип репликации информации, впервые описанный Н. К. Кольцовым [7], играет столь большую роль в размножении и динамике как самой информации, так и информационных систем, что на нем следует остановиться подробнее. Суть матричного принципа состоит в том, что сначала с носителя информации изготавливается как бы слепок или негатив, а затем по нему воспроизводится точная копия исходного носителя. Антитезой матричному принципу может служить только принцип гомологичной аттракции, который в природе, кажется, реализации не получил.
Матричный принцип и принцип гомологичной аттракции, по-видимому, исчерпывают логические возможности точного воспроизведения объектов, максимально компактным описанием которых могут служить они сами. Точность такого воспроизведения, однако, не может быть абсолютной – тривиальные термодинамические соображения показывают неизбежность ошибок, и речь может идти лишь об их количестве или частоте.
Как и при любых других способах воспроизведения «чего угодно», здесь возможны ошибки двух типов: ошибки, не влияющие на успешность воспроизведения, и ошибки, препятствующие ему. Первые можно назвать «наследуемыми», а вторые «летальными», ибо они прерывают цикл воспроизведения испытывающих их информации и тем самым обрекают эти информации на гибель. Если считать, что вероятность возникновения одной ошибки постоянна на одну букву сообщения, то, следовательно, вероятность ошибки на сообщение в целом будет возрастать с его длиной, т.е. с величиной емкости информационной тары, это сообщение содержащей. Если частота таких ошибок приближается к критическому значению, все большие преимущества будут получать наследуемые изменения, снижающие частоту этих ошибок или помогающие компенсировать их в случае возникновения, – способ репликации будет совершенствоваться в направлении повышения его точности при параллельном (или независимом) развитии систем, обеспечивающих исправление или репарацию информации от возникающих ошибок или повреждений.
В этом процессе интересная роль должна принадлежать недозагруженной емкости информационной тары. Изменения, в ней происходящие, могут иметь либо летальный характер, и тогда они неотличимы по последствиям от подобных изменений самой информации, либо могут приводить к возникновению новой информации, т.е. к увеличению количества информации, содержащейся в данном носителе. Таким образом, разность «Н-В» может оказаться не балластной, а сыграть роль источника сырья при «построении» новой информации.
Как уже отмечалось, уменьшение выхода ошибок при матричном воспроизведении информации возможно не только путем их предотвращения в результате совершенствования механизмов копирования, но также путем следующего за копированием исправления уже возникающих ошибок. Для этого, очевидно, требуется такие ошибки выявлять, что может быть осуществлено путем сопоставления новых копий либо с некоторым эталоном, либо нескольких копий между собой. Эталоном может служить либо образец, подлежащий копированию, либо «шаблон», непосредственно не относящейся к носителям самой информации. Шаблонный способ может служить лишь для отбраковки любых изменений, – и где он возникает, прекращается вообще изменчивость информации, а следовательно, и ее эволюция. Остается сопоставление копии с исходным образцом или с другими копиями. То и другое может помочь выявить изменение, а точнее – различие между несколькими экземплярами носителей одной и той же информации, но решить, какое из них – исходное, а тем более – «правильное», а какое – новое или «ошибочное», невозможно без специальных устройств или шаблонов. Поэтому коррекция ошибок может осуществляться двумя путями – путем исправления нового образца, если его можно отличить от старого, и путем «исправления» в любом из двух образцов, т.е. путем делания их одинаковыми либо возвращая к исходному варианту, либо внося вновь появившееся изменение и в исходный, старый образец.
Можно полагать, что меры по стандартизации реплик будут обходиться тем «дороже», чем большая точность к ним предъявляется, и в реальной ситуации дело должно ограничиваться «сходной ценой»: снижением частоты летальных изменений до некоторого «удовлетворительно переносимого» уровня. Автоматизм этого механизма очевиден и в детальном рассмотрении не нуждается. Результатом будет элиминация грозящих «вымиранием» информации летальных изменений и закрепление в новых поколениях информации изменений нелетальных. Все это будет приводить к некоторому постоянно идущему процессу спонтанной изменчивости информации. Механизмы такой изменчивости для информационных систем разных типов могут различаться.
Репликация информации: способы и устройства
Для анализа способов репликации информации и устройств, это осуществляющих, большое значение имеет та особенность информации, на которую выше уже обращалось внимание. Особенность эта состоит в том, что при достаточно компактной записи информации ее невозможно задать более коротким текстом. Иными словами, информация представляет собой класс таких объектов, которые нельзя закодировать более короткими последовательностями символов, нежели те, которые их задают, независимо от их числа.
Хотя это утверждение абсолютно справедливо только для максимально компактных текстов, оно определяет основной принцип репликации или воспроизводства информации: принцип прямого копирования.
Вследствие пассивности самой информации для ее репликации требуется наличие реплицирующего устройства, встроенного в соответствующую информационную систему. Мы уже отмечали, что репликация информации может осуществляться только одним способом – путем точного воспроизведения ее носителей. Логически возможны и в действительности существуют четыре варианта этого способа: последовательное и одномоментное копирование, которые могут осуществляться непосредственно, а могут быть опосредованы «негативом». При этом используемый в том или ином случае вариант определяется как особенностями носителя данной информации, так и особенностями реплицирующего устройства.
Запись информации может быть одномерная, двумерная и трехмерная, – но, согласно свойству инвариантности, каждую из них можно трансформировать в одномерную форму. Справедливо, конечно, и обратное утверждение. Поэтому способы репликации информации безразличны по отношению к размерности ее записи и могут быть рассмотрены на примере линейной последовательности символов. Но вот что существенно и что нельзя забывать: так как реплицирующее устройство никогда не «знает», сколь компактен текст, который ему предстоит реплицировать, то как сама репликация, так и процедуры, с ней связанные, всегда осуществляются так, как будто бы они имеют дело с максимально компактной записью. Выражается это в том, что собственно репликации всегда и без исключения подвергается не сама информация как таковая, а содержащие ее носители. Поэтому задача репликации информации в действительности сводится к репликации ее носителей, воспроизведение же самой информации является лишь неизбежным следствием этой процедуры. Репликация информации, следовательно, может осуществляться без соответствующего ее понимания и реализации информационной системой.
Соответственно четырем названным выше вариантам репликации информации может существовать четыре типа устройств, для этого предназначенных. Принципиальные схемы их конструкций тривиальны и специально рассматриваться не будут. Важно лишь отметить, что в природных (а не технических) информационных системах доминирует последовательный негативный способ, который обычно и называют матричным. В искусственных или технических системах используются все четыре способа, развившиеся из доминирующего в природных системах.
Реализация информации: построение оператора
Реализацию любой информации можно разделить на два этапа: построение оператора (собственно реализация или материализация информации) и работа оператора по осуществлению целенаправленного действия. Рассмотрение реализации информации начнем с первого этапа.
Материализация информации предполагает, прежде всего, наличие устройства, ее осуществляющего. Любую информацию, согласно нашему определению, можно представить себе как программу для построения некоторого объекта – оператора. Это не что иное, как алгоритмическое определение информации по А. Н. Колмогорову [1], подчеркивающее ее действенность. Но информация сама по себе пассивна – это лишь программа, вводимая в «реализующее устройство». Такое устройство, само являющееся оператором, выполняющим определенное целенаправленное действие, не может возникнуть само по себе, а может быть создано лишь на основе какой-то информации. Как и другие объекты материального мира, реализующее устройство не вечно и, конечно, изнашивается и нуждается в замене. Для построения нового реализующего устройства опять требуется соответствующий оператор и т.д. Возникает порочный круг. Выходом здесь может быть лишь предшествующее каждому новому циклу реализации информации построение новых реализующих устройств с помощью старых, оставшихся от предыдущего цикла, а затем с их помощью уже построение самого оператора. Так мы опять возвратились к схеме работы автомата фон Неймана (см. рис. 3).
Таким образом, полная реализация информации может представлять собой лишь ряд последовательных шагов, т.е. построение ряда промежуточных операторов, так, чтобы лишь последний окончательно выявил ее семантику, совершив, наконец, заключительное действие, целью которого, как мы помним, является воспроизведение информации, относящейся к данной информационной системе (см. главу 2).
А. Н. Колмогоров в своих эссе об алгоритмическом определении информации [1] разделяет собственно информацию о некотором объекте и программу построения этого объекта по данной информации. По-видимому, информацию, и притом любую, всегда достаточно рассматривать как некоторую программу или как руководство к действию, которые, однако, никогда не могут быть исчерпывающе полными. Реализация таких программ всегда предполагает нечто, предопределяемое особенностями самого реализующего устройства, и вопрос о том, насколько по такой программе можно априори воссоздать оператор в его окончательном виде, всегда остается открытым. Не это ли имел в виду А. Н. Колмогоров, говоря о недискурсивности функций, представляющих собой такие программы? Тогда максимально-компактной записью информации можно называть минимальную длину программы (из всех возможных), допускающей построение оператора.
Здесь возникает интересный вопрос о соотношении сложности и специфики самого оператора, его описания и программы для его построения. Подробнее эти вопросы будут рассматриваться ниже.
Мы должны здесь подчеркнуть две стороны процесса построения оператора на основании данной информации, завершающегося возникновением оператора для осуществления целенаправленного действия. Первое – этот процесс требует притока вещества и энергии. Второе – ошибки копирования, о которых мы говорили выше, будут отражаться в построении промежуточных операторов в качестве «мутаций» или «флуктуации». Эффективность или жизнеспособность конечного продукта будет зависеть от этих промежуточных операторов, которые являются, таким образом, материалом для дарвиновского отбора.
Ощущение порочного круга – реализация информации через реализующее устройство, построение которого также требует информации, – отражает не тавтологичность наших рассуждений, а тот объективный факт, что никакой информации вне связи с информационными системами не существует и существовать не может. Любая же реальная информационная система возникла в ходе преемственности, развилась из ранее существовавших, а не спонтанно. Это приводит к простому выводу, что возникнуть информация могла лишь в единстве с ее информационной системой, в максимально простом из возможных ее вариантов. Только дальнейшее развитие такой системы, с вычленением отдельных блоков (или устройств), представляло собой реализацию потенций, заложенных (или, точнее, скрытых) в этой прародительской информационной системе.
Операторы и их характеристики
Мы уже говорили, что любой оператор, от считывающего и реализующего устройства до всей информационной системы в целом, можно рассматривать как машину, призванную осуществлять то или иное целенаправленное действие. Теория таких машин кратко изложена Л. А. Блюменфельдом [8], и повторять ее нет надобности. Здесь же нас интересуют лишь самые общие характеристики операторов и особенности их связи со свойствами кодирующей их информации.
Чтобы в дальнейшем не возникало недоразумений, следует, пожалуй, еще раз подчеркнуть, что оператор – это любой объект, возникновение которого возможно только на основе предшествующей информации. Таким образом, к классу операторов мы должны относить и молекулы белка, и рибосомы, и всю совокупность негенетических компонентов клеток, и всех живых организмов, и все, что изготавливают эти организмы для поддержания своего воспроизведения, а также любой объект человеческих технологий и весь технологический комплекс в целом. Построение любого оператора всегда и неизбежно, как мы видели, предшествует воспроизведению кодирующей его информации и необходимо для осуществления этого воспроизведения, хотя обратное заключение не обязательно верно (действительно, информация IА может кодировать оператор, обеспечивающий воспроизведение информации IА + IВ + IС + ...). Поэтому любой оператор может быть отнесен к системам обеспечения воспроизведения информации. Таким образом, любой оператор всегда выполняет две функции: осуществление целенаправленного действия, для чего он непосредственно предназначен, и обеспечение воспроизведения кодирующей его информации, что может либо полностью совпадать с первой функцией, либо быть весьма опосредованной, отдаленной, но все равно строго обязательной целью его деятельности.
Однако, каким бы ни был оператор и сколь бы опосредованной ни была его связь с достижением конечной цели, его всегда можно охарактеризовать в трех аспектах: сложностью его организации, спецификой строения и коэффициентом его полезного действия. Рассмотрим последовательно эти три характеристики.
Сложность оператора и количество информации
Сложность организации операторов, как и любых других объектов, можно задавать несколькими способами, в соответствии с чем и меры сложности могут быть разными.
Действительно, сложность организации любого объекта можно, по-видимому, выразить числом знаков (напр., бинарного кода), требующихся для описания этого объекта; числом и разнообразием составляющих данный объект элементов; числом «шагов» (операций), требующихся для построения этого объекта из исходного сырья, и т.п. И хотя каждый из таких подходов к выражению сложности объекта требует своего ограничения (т.е. до какого уровня следует доводить детализацию), причем условность здесь неизбежна, очевидно, что все эти способы связаны друг с другом так, что при возрастании любой избранной меры сложности будут возрастать значения и других.
Если в качестве меры сложности объекта использовать число знаков бинарного кода (т.е. биты), требующихся для его описания (на избранном уровне организации), а в качестве меры количества кодирующей его информации – число знаков бинарного кода, задающих программу его построения (на этом же уровне организации), то мы получим возможность сравнивать их друг с другом.
У А. Н. Колмогорова [1] существует высказывание, что с увеличением сложности объекта и, следовательно, числа битов, требующихся для полного его описания, количество информации, кодирующей построение этого объекта, будет так возрастать, что в конце концов, при достаточно большой сложности объекта, полностью совпадет с его описанием. Так ли это? Если программу построения объекта задавать, следуя дихотомическому принципу, то количество информации, кодирующей объект, будет возрастать как логарифм его сложности, т.е. будет все более отставать от степени его сложности. Можно, по-видимому, доказать утверждение, сформулированное выше, что сложность объектов возрастает быстрее, чем количество кодирующей их информации, например, как его степенная функция. Тогда разрыв между числом битов, описывающих объект, и числом битов, задающих программу его построения, с увеличением сложности объекта будет только возрастать.
Увеличение сложности объекта с увеличением количества кодирующей его информации означает, что в общем случае при этом увеличивается число составляющих его деталей, усложняется их взаиморасположение, возрастают энергозатраты как на построение такого объекта, так и на обеспечение его функционирования. В случае операторов – а мы уже условились, что все без исключения объекты, возникающие при участии информации, можно считать операторами, - это утверждение справедливо, конечно, лишь по отношению к тем ситуациям и целям, для которых эффективность соответствующей информации больше нуля.
Таким образом, мы приходим к выводу, что сложность строения операторов всегда увеличивается так же или быстрее, как и количество кодирующей их информации. Это означает одновременное увеличение энергозатрат как на изготовление, так и на обеспечение функционирования этих операторов.
Специфика операторов и семантика информации
Семантику информации мы определили выше как ту ее особенность, которая обусловливает специфику кодируемого ею оператора. Из-за условности любой информации очевидно, что понятие «семантика» имеет смысл лишь по отношению к данной информационной системе, или, точнее, данному реализующему устройству этой системы. Под «спецификой» оператора имеются в виду особенности слагающих его компонентов и характер связей между ними, что, в конечном счете, и определяет успешность участия оператора в осуществлении того или иного целенаправленного действия. Следовательно, именно семантика информации определяет ту специфику оператора, благодаря которой вероятность успешного достижения цели, а следовательно, и ценность данной информации, имеет то или иное распределение на множестве пар «ситуация-цель» (см. глава 2). Способы выражения как специфики оператора, так и ценности информации оказываются идентичными.
Работа оператора, ее характеристики
Первым этапом реализации информации является, как мы помним, создание оператора. Второй этап – деятельность, или работа этого оператора, результатом чего и будет осуществление события цели Z и возникновение побочных продуктов w, этому сопутствующее. Очевидно, что оба этапа реализации информации могут быть существенно разделены во времени, вплоть до такого крайнего случая, когда первый может произойти, а второй – нет. Очевидно также, что лишь завершение второго этапа является полной реализацией информации, и только от этого зависит ее дальнейшая судьба – как в том случае, когда успешность работы операторов побуждает «расширять их производство» и, следовательно, будет приводить к мультипликации кодирующей их информации, так и в том случае, когда итогом их работы является непосредственное воспроизведение информации.
Работа операторов, как и любых машин, требует, прежде всего, затрат определенного количества энергии. Это обстоятельство сразу же вводит нас в круг привычного царства законов механики и термодинамики. Мы можем здесь, следовательно, говорить о затратах энергии на работу операторов, о расходовании энергии на «полезное действие» (достижение Z) и на производство «побочных продуктов» (w).
Особенности информации определяют специфику оператора, а эта последняя – его термодинамические характеристики в данном информационном поле. Эти характеристики, в свою очередь, влияют на динамику самой информации, определяя скорость ее воспроизведения и степень мультипликативности. Поэтому динамику информации невозможно понять, не уяснив себе предварительно характер связей между ее свойствами и термодинамическими особенностями оператора.
КПД оператора и характеристики информации
КПД оператора, как и любой другой машины, можно выразить отношением полезно затрачиваемой энергии к общему ее расходованию оператором при осуществлении целенаправленного действия. Согласно определению, полезной будем называть ту энергию Ez, которая расходуется только на осуществление «полезного действия», т.е. на достижение цели Z. Следовательно, разность между общей и полезной энергией идет на «производство» побочного продукта w данного целенаправленного действия:
(17)
Какие же характеристики информации и в какой мере обусловливают КПД ее оператора?
К сожалению, строгих подходов к ответу на этот вопрос пока не существует. Лишь интуитивно можно полагать, что в самом общем случае расходы энергии на работу оператора должны возрастать с увеличением его сложности, а чем больше относительное количество «полезно» затрачиваемой энергии Ez, тем больше вероятность достижения цели в данном пространстве режимов при использовании данного оператора. Но, как мы видели выше, сложность оператора отражает количество Bz кодирующей его информации, а вероятность достижения цели определяет ее ценность Cz. Поэтому на основании чисто интуитивных соображений можно высказать предположение, что КПДQ увеличивается с ростом С/В =А1, т.е. что КПД оператора возрастает пропорционально ценности С и обратно пропорционально количеству В кодирующей его информации, или, что то же самое, пропорционально эффективности А, этой информации. Конечно, это справедливо только для пар «информация-оператор» данного типа и может проявляться лишь в последовательном ряду преемственных пар «информация-оператор».
Таким образом, можно высказать предположение, что коэффициент полезного действия оператора возрастает с увеличением эффективности кодирующей его информации.
Это предположение, если его удастся строго доказать, может вполне претендовать на роль основной теоремы будущей теории информации. Предположение это столь фундаментально, что его следует рассмотреть более внимательно. Роль этого предположения состоит в том (как будет показано в главе 5), что только на его основе можно строить учение о динамике информации. Поэтому приведенное выше предположение можно рассматривать как «центральную догму» общей теории информации, без доказательства или принятия которой невозможно последовательное ее построение. Будем надеяться, что в недалеком будущем удастся не только доказать справедливость этого предположения, но и выяснить (хотя бы в общем виде) форму зависимости КПДQ от А1.
Какова же может оказаться форма этой зависимости? Вряд ли она будет линейной. Скорее всего, зависимость эта будет иметь более сложный характер, и в нее будут входить коэффициенты, отражающие другие свойства и особенности информации, помимо ее количества и ценности. Но при константных значениях таких коэффициентов с увеличением А1 значение КПДQ будет, скорее всего, монотонно увеличиваться, и пока для нас этого вполне достаточно. Ведь вряд ли можно сомневаться, что значения этих коэффициентов будут отражать, главным образом, специфику пространства режимов и информационных полей.
Из соотношения (15) можно вывести ряд следствий.
Первое следствие. КПДQ не есть постоянная величина, но зависит от особенностей пространства режимов и информационного поля (т.е. от ситуации, при которой «работает» оператор, и той цели, для достижения которой он служит). Но распределение КПДQ по множеству информационных полей должно если не совпадать, то «однонаправленно отображать» распределение эффективности А, соответствующей информации.
Второе следствие. КПДQ отображает «эффективность» достижения цели, мерой которой в информационном аспекте служит эффективность А1 самой информации. Это очень важное следствие. Оно наполняет реальным физическим содержанием понятие «эффективность информации», введенное выше чисто формально (см. главу 2). Нетривиальность ситуации состоит в том, что максимум КПДQ далеко не всегда и далеко не обязательно должен соответствовать максимуму вероятности достижения цели: лишь в начале, при значениях С ›› 1, КПДQ будет возрастать с увеличением С, а затем может либо стабилизироваться, либо начнет уменьшаться, изменяясь в разных ситуациях с разными скоростями. Но во всех случаях максимумы кривых КПДQ(В) и А1(В) должны совпадать, точнее, должны совпадать их положения по оси абсцисс, т.е. оба максимума должны приходиться на одни и те же значения В = Ворt.
Третье следствие. Хотя величина КПДQ может изменяться в интервале от 0 до 1, т.е. пробегать те же значения, что и Р – вероятность достижения цели в данном целенаправленном действии, а также С - ценность информации, это еще не означает, что КПДQ однозначно, хотя бы по направлению, отражает значение Р и С. Можно лишь думать, что при достаточно больших значениях КПДQ величины Р и С не должны быть очень малыми, хотя обратное заключение может быть неверным, ибо высоким значениям Р и С могут соответствовать очень низкие значение КПДQ. Примеров этому, пожалуй, можно привести множество. Это следствие очень богато содержанием и, можно думать, имеет огромное значение для анализа конкретных путей динамики информации.
Четвертое следствие. Очевидно, что на производство «побочных продуктов» w расходуется лишь некоторая доля от всей энергии, требующейся оператору для осуществления целенаправленного действия: EW = Е (1 –КПДQ). Это, однако, не означает, что с увеличением КПДQ выход побочного продукта будет уменьшаться, а «безотходность производства» – возрастать. Можно думать, что выход побочного продукта будет примерно пропорционален абсолютному значению «бесполезного» расходования энергии в данном объеме пространства – именно пространства, а не «пространства режимов»! Поэтому выход побочного продукта и должен быть пропорционален ЕW = (EQ - Ez) = Eq (1 – КПДQ). В общем случае форма зависимости выхода побочного продукта w от КПДQ и, следовательно, от характеристик информации может иметь весьма сложный характер, но мы этот вопрос рассматривать не будем.
Подведем теперь некоторые итоги.
Важнейшим аспектом связи КПДQ и А1 является, таким образом, выявление и рассмотрение абсолютных соотношений между В, С и А информации, с одной стороны, и EQ, Ez и КПДQ, с другой. Решаема ли задача в общем виде, трудно сказать. Не исключено, что связь между А, и КПДQ установить удастся, но нахождение абсолютных значений соответствующих характеристик информации и операторов в каждом конкретном случае потребует, конечно, специальных расчетов.
Нетрудно видеть, что все сказанное выше относится в равной мере к любым операторам, а главное, к любым информационным системам, обеспечивающим воспроизведение информации. Характеристики таких схем, как мы постарались показать выше, зависят от особенностей пространства режимов, в пределах которого эти системы призваны функционировать, т.е. совершать целенаправленные действия, сопровождающиеся появлением побочных продуктов. Поэтому «деятельность» информационных систем невозможно себе ясно представить, не рассматривая ее в теснейшей связи с характеристиками соответствующих ситуаций и теми изменениями, которые в них могут индуцироваться.
Пространства режимов и их характеристики
Пусть дана некоторая информация I, кодируемый ею оператор Q, и определено событие, являющееся целью Z. Каждый из факторов, необходимых и достаточных для осуществления с той или иной вероятностью р или Р этого события, можно представить себе как одну из осей координат некоторого многомерного пространства, число измерений которого равно числу этих факторов. Построенное таким образом пространство назовем «пространством режимов» данной информационной системы. За начало координат этого пространства можно принять точку, где значения всех факторов равны нулю; по мере нарастания степени выраженности каждого фактора оси пространства режимов будут расходиться.
В любом пространстве режимов можно выделить две области: область спонтанного осуществления Z(p > 0) и область целенаправленного действия (Р > р). Первая из этих областей задается многомерной поверхностью, описывающей распределение по пространству режимов величины р, а вторая – распределением величины Р; очевидно, что вторая область включает в себя первую.
В области спонтанного осуществления Z можно выделить «зону комфорта», где р≈1. Отрезок времени, в течение которого в зоне комфорта осуществляется Z, можно назвать «собственным временем» данной системы и использовать его для калибровки времени, в данной системе протекающего. Тогда значение 0<р≤1, а также все значения Р > 0 можно трактовать как «вероятности в единицу времени», подразумевая под последним собственное время системы. Функционирование оператора в области целенаправленного действия можно описывать как миграцию любой заданной точки этой области в зону комфорта и обратно. Получаемые при этом циклы можно характеризовать продолжительностью, длиной пути и вероятностью завершения и, таким образом, сопоставлять друг с другом.
Очевидно, что пространство режимов любой информационной системы можно также характеризовать распределением на нем значения ценности С информации, эту систему определяющей. Отсюда легко перейти к распределению на пространстве режимов величины КПДQ, что приобретает особый интерес в качестве меры соответствия.
Принцип соответствия. Мера соответствия
Очевидно, что в действительности пространства режимов s «в чистом виде» не существуют и существовать не могут. В любой реальной ситуации помимо факторов, необходимых для осуществления целенаправленного действия и составляющих пространство режимов, обязательно присутствуют еще и факторы, безразличные по отношению к деятельности данной информационной системы, а также факторы, препятствующие ее деятельности, т.е. выступающие в роли помех. Безразличные факторы не влияют ни на р, ни на Р, а помехи могут уменьшать как р, так и Р и, следовательно, существенно влиять на величину С. Наличие таких факторов является очень важным обстоятельством, сказывающимся на работе информационных систем, а следовательно, и на динамике информации в данных конкретных условиях, т.е. в среде ее обитания. К этому нужно еще добавить, что по мере функционирования оператора любая реальная среда не остается постоянной, а постепенно изменяется в результате потребления имеющихся в ней ресурсов R, необходимых для осуществления целенаправленного действия, и накопления побочных продуктов w. Поэтому термин «пространство режимов» можно использовать лишь для формального описания работы той или иной информационной системы, а при описании реальной ситуации лучше пользоваться термином «зона обитания» (или каким-либо его синонимом), которую можно характеризовать исходным состоянием и последующей трансформацией.
Для того, чтобы данный оператор в данной зоне обитания мог осуществлять данное целенаправленное действие, этот оператор должен соответствовать этой зоне. С равным правом можно говорить о соответствии друг другу зоны обитания и кодирующей данный оператор информации. Иными словами, чтобы данный оператор был работоспособным, информация, его кодирующая, должна «предусмотреть» не только пути миграции данной точки пространства режимов в зону комфорта, но и достаточную помехоустойчивость оператора. Требуемую помехоустойчивость можно обеспечивать по меньшей мере тремя способами: уходом от помех, защитой от них и репарацией (починкой) вызываемых помехами нарушений.
Реальные формы распределения р и Р на зоне обитания (размерность которой может существенно превышать размерность включенного в нее пространства режимов) позволяют для каждой данной информационной системы построить распределение на этой зоне как эффективности А информации, так и КПД оператора. Второе из этих распределений можно использовать в качестве «критерия соответствия» друг другу информации и оператора, с одной стороны, и информации и зоны обитания, с другой. Мерой такого соответствия для каждой точки зоны обитания будет, естественно, служить соответствующая ей величина КПДQ.
Теперь мы можем сформулировать принцип соответствия – один из основных принципов общей теории информации [9]:
Мерой соответствия оператора и кодирующей его информации служит соответствие между зоной обитания и действием оператора, его КПДQ.
Здесь, естественно, может встать вопрос о достаточности такого критерия соответствия, как величина КПДQ. Если рассматривать относительную конкурентоспособность нескольких информационных систем в данной зоне обитания, этого критерия, по-видимому, вполне достаточно. Можно показать, однако, что этот критерий соответствия будет «работать» и в случае конкуренции нескольких информационных систем: ведь каждую из них, а также вызываемые ими изменения зоны обитания можно выразить в форме одной или нескольких дополнительных осей координат данной зоны обитания или в форме вектора, отражающего скорость и направление трансформации этой зоны во времени. Хотя реальный аппарат, пригодный для такой интерпретации проблемы конкурентоспособности разных информационных систем, может быть достаточно сложным, принципиальных трудностей здесь не просматривается.
Зона обитания и ее характеристики
Итак, зоной (или средой) обитания некоторой информационной системы будем называть внешнюю по отношению к ней среду s, содержащую ресурсы R, необходимые для функционирования этой системы, а также отвечающую другим требованиям, необходимым для обеспечения успешности этого функционирования. Попадая в такую подходящую для нее зону, информационная система начинает «работать», поглощая ресурсы и создавая собственные копии, а также засоряя среду побочными продуктами своей деятельности. В ходе такой работы информационные системы, следовательно, не только воссоздают себя, но и трансформируют среду их обитания.
Такие изменения среды обитания информационных систем всегда и неизбежно слагаются из трех составляющих. Во-первых, это изъятие из среды ресурсов R, необходимых для работы операторов информационных систем. Во-вторых, это поступление в среду побочных продуктов w работы операторов. В-третьих, это накопление в среде все новых экземпляров вновь создаваемых информационных систем, т.е. «заселение» ими среды обитания.
Все это из множества возможных характеристик среды обитания позволяет выделить следующие, для нас наиболее существенные. Первая характеристика – это положение среды обитания по отношению к пространству режимов, что отражает степень оптимальности данной среды для заселяющих ее информационных систем. Вторая – это наличие в данной среде факторов типа помех, негативно действующих на информационные системы и предъявляющих к ним требования той или иной помехоустойчивости. Третья – это ресурсоемкость среды обитания, которую можно выразить отношением имеющихся в ней ресурсов R к тому количеству ресурсов r, которое требуется для осуществления одного цикла целенаправленного действия: Rr-1 = p.
Очевидно, что в случае р < 1 целенаправленное действие, начавшись, не сможет завершиться. В случае р = 1 оно может осуществиться лишь один раз. Только в случае р›› 1 среда обитания будет успешно «разрабатываться» информационными системами, все более «засоряющими» ее при этом побочными продуктами своей деятельности. В какой мере среда обитания сможет «справляться» с этим засорением, будет определяться четвертой ее характеристикой – ее кондиционирующей мощностью. Наконец, пятая характеристика – объем среды обитания – будет определять, какое предельное количество информационных систем она сможет «вместить в себя» без ущерба для их дееспособности. Очевидно, что объем среды обитания определяется как ее собственными параметрами, так и параметрами «жизненного пространства», требующегося для нормальной работы одной информационной системы.
К этим характеристикам надо добавить еще одну, интегральную характеристику среды обитания, которую можно назвать ее надежностью. Это – способность сохранять значения своих параметров при постоянном давлении различных деформирующих факторов, в нашем случае – продолжающемся потреблении ресурсов и поступлении побочных продуктов w. Ввиду особой важности этого параметра, т.е. надежности, рассмотрим его более внимательно.
Продуктивность, кондиционирующая мощность и надежность
Независимо от того, циклической или непрерывной, постоянной или изменяющейся во времени будет деятельность оператора Q1, попавшего в данную среду обитания, эта деятельность неизбежно будет сопровождаться потреблением ресурсов R - источников энергии и субстрата окружающей среды 5 и поступлением в нее w побочных продуктов или «отходов производства» в виде тепла, различных химических соединений и пр. Для упрощения ситуации положим, что осуществление события цели Z само по себе никак не влияет на среду обитания. Тогда можно записать:
(18)
где i = 0, 1, ... п есть номер очередного цикла работы оператора или время, прошедшее от начала его функционирования. Из этого следует, что для того, чтобы среда обитания оставалась пригодной для существования в ней данного оператора (или его копий), она должна постоянно поставлять ресурсы R и справляться с побочным продуктом w независимо от величины i, так чтобы Si ≈ S0
Заметим, что R и w не являются независимыми переменными. Ведь как Z, так и w образуются из исходных ресурсов R, так что можно ввести параметр
(19)
где rz + rw = r, а величина а может быть названа «коэффициентом полезного использования ресурсов». Так как w всегда сопутствуют Z, то а всегда и неизменно меньше единицы (0 < а< 1).
Нетрудно видеть, что а – очень важная, фундаментальнейшая характеристика любого целенаправленного действия: чем меньше а, тем большая доля ресурсов R «идет в отход», засоряя среду обитания: w =fR (1 - а).
Ресурсы R, по отношению к содержащей их среде, могут быть, вообще говоря, двух типов – невозобновляемыми и возобновляемыми. Мы будем рассматривать возобновляемые ресурсы, как наиболее общий случай. Тогда способность среды обитания производить тот субстрат и те источники энергии, которые слагают ресурсы R, будем называть продуктивностью этой среды. В случае, когда продуктивность (реальная или потенциальная) полностью компенсирует расход ресурсов в ходе функционирования информационных систем, такие ресурсы можно условно считать неисчерпаемыми. Если же продуктивность существенно ниже скорости потребления ресурсов, то практически мы будем иметь дело с невозобновляемыми ресурсами.
В обоих случаях, однако, характер ресурсов не будет влиять на скорость поступления в среду обитания побочных продуктов w, определяемую лишь «ресурсоемкостью» целенаправленного действия, величиной w и собственным временем данной информационной системы. Накоплению в среде побочного продукта или загрязнений противостоит кондиционирующая мощность этой среды, или ее способность разбавлять, захоранивать, разрушать, нейтрализовывать или утилизировать компоненты побочного продукта. Поэтому реальное загрязнение среды побочными продуктами определяется разностью между скоростью их поступления и скоростью кондиционирования (или самоочистки) среды обитания. Очевидно, что только в том случае, когда кондиционирующая мощность превышает скорость накопления побочных продуктов, среда практически не подвергается их действию.
Надежностью среды обитания будем называть ее способность сохранять характеристические значения продуктивности θ и кондиционирующей мощности ø при приближении скорости расходования ресурсов и скорости поступления побочных продуктов к ø (т.е. при dR/dt→θ и
dw/dt → ø).
Действительно, можно представить себе, что значения θ и ø по мере возрастания dR/ dt и dw/dt могут: не изменяться, возрастать или уменьшаться. Во всех трех случаях, однако, должны существовать такие предельные значения θ0 и ø0, определяемые соотношениями
и (20)
которые мы и будем называть характеристическими. Заметим, что θ0 и ø0, вообще говоря, могут зависеть от разных случайных ситуаций, не связанных непосредственно с работой информационных систем, но чем надежнее среда обитания s, тем меньше будет выражена такая зависимость.
Очевидно, что надежность среды обитания обусловливается особенностями функционирования ее компонентов. Проблема эта будет еще рассматриваться ниже. Сейчас лишь заметим, что в самом общем случае надежность тем выше, чем из большего числа компонентов эта среда слагается. Чем больше размерность среды обитания, тем стабильнее она должна функционировать и в качестве продуцента, и в качестве кондиционера, в том числе и при увеличении нагрузок на эти функции.
Заметим, что хотя продуктивность и кондиционирующая мощность обеспечиваются в среде обитания как бы независимо друг от друга, обе эти функции связаны между собой через ее (среды) надежность. Подавление кондиционирующей мощности, уменьшая надежность среды обитания, будет, как правило, приводить к уменьшению ее продуктивности. Поэтому все три фундаментальных параметра среды обитания – ее продуктивность, кондиционирующая мощность и надежность тесно связаны между собой и имеют тем большие значения, чем больше многокомпонентность (или размерность) этой среды. Величина же надежности среды обитания определяет, в конечном счете, ту максимально-допустимую нагрузку на ее продуктивность и кондиционирующую мощность, которую эта среда может выдержать, не претерпевая необратимых трансформаций.
Побочный продукт и его воздействие на среду обитания
Из сказанного выше как будто следует вывод, что на «производство» побочного продукта w расходуется (I - rz) доля ресурсов, требующихся для осуществления целенаправленного действия, и (I - КПДQ) энергии, для этого используемой. Однако это лишь нижняя оценка затрат, идущих на выработку w. Если учесть, что конечной целью деятельности любой информационной системы является воспроизводство кодирующей ее информации, то окажется, что «полезно используемые» ресурсы, в том числе источники энергии, почти целиком расходуются на производство неинформационных компонентов таких систем, т.е. слагающих их операторов и физических носителей информации, а не на информацию как таковую, – ведь информация нематериальна, и для ее воспроизводства никаких вещественных или энергетических затрат не требуется. Но любой материальный объект обречен на гибель; эта судьба ожидает и все операторы, и включающие их информационные системы. Погибая и разрушаясь, они также «загрязняют» среду, в которой ранее функционировали, чужеродными для нее компонентами.
Таким образом, воспроизводство, тем более расширенное, информации, осуществляемое информационными системами (реальными воплощениями универсального автомата фон Неймана) в среде их обитания сопровождается накоплением в этой среде чужеродных ей элементов двух типов – побочных продуктов w целенаправленного действия и «отработанных» операторов Q. Если на выработку w расходуется (1 - a) R, а на выработку Q - aR, то очевидно, что в ходе осуществления информационных циклов все ресурсы R, черпаемые информационными системами из внешней среды, возвращаются в нее же в трансформированном виде, и кондиционирующая мощность среды должна быть направлена на «дезактивацию» не только w, но и Q.
Итак, по отношению к среде обитания целенаправленная деятельность разрабатывающих ее информационных систем выражается в переработке некоторых исходных ее компонентов (названных нами ресурсами R) в новые, чуждые ей продукты – физические тела и химические соединения, поступающие в нее во все возрастающих количествах. На это идут все черпаемые из внешней среды ресурсы. Коэффициент полезного использования ресурсов а и коэффициент полезного действия операторов КПДQ определяют лишь соотношение разных компонентов в продуктах трансформации R, но не валовое их количество. Процесс этот предъявляет к среде обитания два требования: усиление функции продуктивности для компенсации убыли R и усиление кондиционирующей функции для элиминации или трансформации чужеродных ей компонентов. По мере деятельности информационных систем напряженность этих функций должна все более возрастать, а так как ни один процесс в природе не может осуществляться с абсолютной точностью, то трансформация среды обитания (под влиянием деятельности информационных систем) в направлении обеднения ресурсами R и накопления новых компонентов (за счет поступающих в нее w и Q) столь же неизбежна, сколь неизбежно само течение времени. Кондиционирующая и продуктивная «деятельность» этой среды может лишь затормозить, но не полностью предотвратить этот процесс.
КПД целенаправленного действия. Объективные и субъективные аспекты
Если допустить, что скорость переработки ресурсов R каждым данным оператором Q, постоянна, то отсюда следует, что коэффициент его полезного действия определяет не только соотношение «неопределенных» и «определенных» компонентов в загрязняемости внешней среды, но и скорость завершения каждого цикла целенаправленного действия, т.е. скорость достижения цели. Чем выше КПДQ, тем четче работает оператор, меньше загрязняя среду обитания «неопределенными» отходами и быстрее завершая каждый цикл целенаправленного действия, т.е. воспроизводя свою копию и кодирующую ее информацию. Таким образом, величина КПДQ оказывается тесно связанной с величиной собственного времени Q. Если же учесть, что среди неконтролируемых отходов вполне могут быть и такие, которые, накапливаясь в среде обитания, могут выступать как помехи по отношению к оператору, то связь между величиной КПДQ со скоростью и эффективностью (т.е. величиной Р) достижения цели становится еще более явственной. Таковы основные объективные аспекты КПД целенаправленного действия.
Но величина КПДQ, как мы помним, отражает особенности структуры оператора, так сказать, степень его «нацеленности» на выполнение именно данного целенаправленного действия в данной среде обитания. Чем жестче подчинена его структура (а следовательно, и характер деятельности) задаче достижения данной цели, тем слаженнее работают его составные части, тем меньше совершает он ненужных или неэффективных операций, тем экономнее использует источники сырья и энергии. Уменьшение КПДQ, как правило, отражает меньшую «целеустремленность» в его работе, меньшую скоординированность в деятельности отдельных компонентов, возрастание числа сбоев, непродуктивных затрат и т.п., а также рост частоты различных поломок, что, в конечном счете, увеличивает скорость изнашиваемости и гибели самого оператора.
Не правда ли, эта картина очень напоминает симптомо-комплекс ускоренной деградации человека, утратившего «цель жизни», например, преждевременно «выставленного на пенсию» или убедившегося в бессмысленности ранее увлекавшей его деятельности? Этот феномен хорошо известен в физиологии еще со времени И.М.Сеченова [10] и А.А.Ухтомского [11]. Общность субъективных аспектов КПД целенаправленного действия для самых разных объектов, способных такие действия совершать, далеко не случайна.
Принципы функционирования информационных систем
Сказанное выше позволяет сформулировать два фундаментальных принципа функционирования любой информационной системы в любых подходящих для этого обстоятельствах. Эти принципы можно задать в форме неравенств:
(21)
Иными словами, для того, чтобы какой-либо оператор (или информационная система в целом) мог успешно функционировать в некоторой среде обитания, ни его потребность в ресурсах, ни скорость наработки побочных продуктов не должны достигать продуктивности и кондиционирующей мощности этой среды.
Справедливость этих принципов явствует из рассуждений «от противного». В случае dR/dt ≥ θ ресурсы среды обитания будут иссякать, а в случае dw/dt ≥ ø все растущее загрязнение среды обитания сделает ее в конце концов непригодной для функционирования в ней данной информационной системы.
Сказанное остается в силе и в тех случаях, когда данная среда обитания разрабатывается разными информационными системами, – точнее, информационными системами или операторами разных типов. Все другие операторы по отношению к оператору некоторого данного типа можно рассматривать как дополнительные размерности соответствующей среды обитания, как присущие ей «экологические факторы». Это позволяет формально описывать любые виды взаимодействия операторов разных типов, зависящие от их численности, их влияния на среду обитания и друг на друга. При этом, сколько бы ни было типов информационных систем, их воздействие на среду обитания может со временем только возрастать, ограничиваясь условиями dR/dt < θ и dw/dt < ø. Но воздействие это может быть двух видов – неупорядоченное и упорядоченное.
Из сказанного выше следует, что долго продолжающееся неупорядоченное воздействие, сводящееся к накоплению в среде побочных продуктов, всегда и неизбежно будет приводить к уменьшению КПД разрабатывающих эту среду информационных систем. Все большее количество ресурсов, потребляемых операторами этих систем, будет идти на разрушение окружающей их среды, что справедливо для информационных систем любых видов сложности. Уменьшение КПДQ всегда и неизбежно будет приводить к нарастанию неупорядоченности в среде обитания и сопутствующему ему разладу, дисгармонии между операторами и этой средой, а также между операторами разных типов.
Упорядоченное, или, точнее, упорядующее воздействие на среду обитания можно обеспечить лишь одним путем – путем постоянного повышения КПД операторов, независимо от того, какие изменения это вносит в сами операторы. Только в этом случае «отходы производства» информации будут принимать все более определенную форму, где доминировать будут «отработанные» операторы наиболее быстро размножающихся информационных систем, а выход случайных побочных продуктов будет минимизироваться. Но в таком случае «отходы производства» информации будут уже не столько разрушать среду обитания, сколько стабилизировать ее на новом уровне, добавляя к ней одно или несколько новых измерений. Размерность среды обитания будет возрастать.
Таким образом, повышение КПДQ, при сохранении неравенств dR/dt < θ и dw/dt < ø, – обязательное требование, или, точнее, условие существования и развития любых информационных систем. Термины «существование» и «развитие» здесь можно рассматривать как синонимы, ибо любая совокупность стабильных операторов неизбежно обречена на гибель, а возрастающая их популяция может существовать, лишь постоянно изменяясь в направлении повышения КПДQ.
Итак, раз возникнув и создав кодируемый ею оператор, любая информация обречена либо на гибель, либо на эволюцию в направлениях, удовлетворяющих сформулированным выше принципам. Это, по существу, автогенез информации, неизбежность которого строго следует из ее природы. Любую информацию, как мы знаем, можно охарактеризовать количеством и семантикой. Изменчивости подвергается и то, и другое. Требование повышения КПДQ означает, по существу, минимизацию количества информации при сохранении ее семантики, а необходимость адаптироваться к возрастанию среды обитания, происходящему в результате деятельности операторов, выдвигает новые требования уже по отношению к ее семантике. Если информация такова, что она способна изменяться в этих двух направлениях, она будет продолжать развиваться, а следовательно, и существовать. Если же, в силу своей специфики, какая-либо информация оказывается неспособной удовлетворять этим двум условиям, она будет обречена на деградацию (уменьшение КПДQ) и вымирание.
Критические ситуации
При продолжительном функционировании каких-либо операторов QI в среде их обитания s и тем более, при их «расширенном воспроизводстве» (когда Z = Q, I) может наступить ситуация, когда dR/dt постепенно начнет приближаться к θ, а dw/dt − к ø. Мы уже отмечали, что загрязнение среды обитания сверх некоторого предела (при dw/dt > ø) должно влечь за собой уменьшение ее продуктивности, что, в свою очередь, скажется на снижении кондиционирующей мощности, и т.д. С того момента, когда начнет действовать такая «прямая связь» и оба важнейших показателя состояния среды, т.е. θ и ø, резко пойдут вниз, ситуацию можно называть критической. Критические ситуации, как правило, еще обратимы.
Таким образом, критические ситуации могут провоцироваться двумя «пусковыми событиями»: излишним потреблением ресурсов R и/или избыточным поступлением в среду обитания побочного продукта w. To и другое может быть следствием как «перенаселения» среды обитания из-за избыточного роста заселяющих ее операторов, так и появления «мутантной» субпопуляции операторов с гипертрофированной потребностью в ресурсах или избыточным образованием побочного продукта. Итогом всегда окажется уменьшение продуктивности и/или кондиционирующей мощности среды обитания, а следовательно, и торможение, вплоть до полного подавления, целенаправленной деятельности заселяющей ее популяции операторов.
Стратегия выхода из критических ситуаций
Все стратегии выхода из критических ситуаций функционирующих информационных систем, периодически возникающие в результате их деятельности в этой или иной среде обитания, должны быть, в конечном счете, направлены на усиление неравенств dR/dt < θ и dw/dt < ø. Осуществляться это может несколькими способами, а именно: уменьшением количества ресурсов, используемых на один цикл целенаправленного действия; уменьшением количества побочного продукта, приходящегося на один такой цикл; увеличением продуктивности среды обитания; увеличением кондиционирующей мощности этой среды; возрастанием ее надежности. Возможны, конечно, и различные комбинации этих пяти способов.
Выйти из критической ситуации можно лишь одним путем: путем такого изменения информации I, кодирующей очередное поколение операторов QI чтобы осуществилось хотя бы одно из пяти перечисленных выше условий. При этом изменение информации должно приводить в итоге либо к увеличению КПД новых операторов, либо к увеличению размерности их пространства режимов. Рассмотрим коротко возможные последствия того и другого.
Повышение КПДQ при сохранении количества ресурсов, требующихся для осуществления только одного события Z, означает, по существу, уменьшение как dR/dt, так и dw/dt, приходящихся на один цикл целенаправленного действия; при этом реализуется первый и второй из перечисленных выше пяти способов. Это – стратегия увеличения эффективности использования субстрата данной среды обитания.
Увеличение размерности пространства режимов, комплементарного данной информации, есть не что иное, как появление у операторов, кодируемых этой информацией, способности использовать в качестве ресурсов все большее число компонентов, слагающих среду их обитания. Выше уже было сказано, что увеличение размерности пространства режимов неизбежно сопровождается повышением как продуктивности, так и кондиционирующей мощности соответствующей среды обитания, а значит, и ее надежности. Здесь, следовательно, реализуются три из перечисленных выше способов выхода из критических ситуаций. Такую стратегию можно назвать стратегией расширения среды обитания.
Так мы выделили две основные стратегии выхода информационных систем из критических ситуаций – стратегию повышения эффективности использования субстрата данной среды обитания и стратегию расширения самой среды обитания. Возможны, конечно, и комбинации этих стратегий.
Обе стратегии могут реализоваться только благодаря изменчивости информации, кодирующей свои информационные системы, а процесс выхода из критических ситуаций может растягиваться на периоды времени, требующиеся для смены по меньшей мере одного поколения информационных систем. Если же критическая ситуация развивается с большей скоростью и ни одна из названных стратегий не успевает с ней справиться, то наступает катастрофа.
Катастрофы
В отличие от критических ситуаций, когда dR/dt → θ и/или dw/dt → ø, ситуацию можно назвать катастрофической, когда dR/dt > θ и dw/dt > ø. Быстрое превышение количества потребляемых ресурсов над продуктивностью среды обитания, т.е. над скоростью их пополнения, а также превышение скорости накопления побочных продуктов над возможностью их кондиционирования, будут неизбежно приводить к разрушению (или, что то же самое, резкому изменению) самой среды обитания s. Совершенно ясно, что разрушение или резкая трансформация среды обитания, наступающие в течение одного цикла целенаправленного действия, неизбежно повлечет за собой прекращение деятельности, а затем и гибель заселяющих ее информационных систем. Катастрофы, в отличие от критических ситуаций, имеют необратимый характер.
Можно представить себе две причины, порождающие катастрофы: продолжающееся активное функционирование операторов в уже наступившей критической ситуации (а) и внезапное резкое увеличение dR/ dt и/или dw/dt в ситуации, далекой от критической (b). В обоих случаях последствия будут сходными и в равной мере губительными для спровоцировавших катастрофу информационных систем.
Иерархия целенаправленных действий
Можно утверждать, что для нормально функционирующих информационных систем конечным итогом успешного осуществления целенаправленного действия любым из составляющих их операторов будет повышение вероятности воспроизведения кодирующей этот оператор информации. Достигается это, как правило, путем множества соподчиненных целенаправленных действий, выполняемых разными операторами, так что конечная цель деятельности каждого оператора далеко не всегда очевидна. Кроме того, соподчиненность информации разных уровней организации также не всегда однонаправлена, и не всегда простейший анализ здесь поможет вскрыть истинную иерархию. Так, например, «поведенческие реакции» или «таксисы» одноклеточных организмов подчинены цели воспроизведения генетической информации, их кодирующей, а у социальных многоклеточных животных функция размножения подчинена цели воспроизведения информации, кодирующей их сложные поведенческие реакции.
Однако независимо от уровня иерархии, занимаемого каждой данной информацией и ее оператором, вышеприведенное утверждение сохраняет свою универсальность. Если из-за изменений R или w величина КПДQ в чреде повторяющихся целенаправленных действий начнет уменьшаться, это рано или поздно, но неизбежно, приведет к изменению, исчезновению или консервации информации, кодирующей данную информационную систему. Отсюда – неизбежность оптимизации по R и w деятельности жизнеспособных в данных условиях информационных систем и развития специальных, соподчиненных, информационных программ и операторов, «отслеживающих» и контролирующих эти параметры.
Сказанное выше чрезвычайно важно, ибо связывает воедино судьбу информации I, эффективность работы кодируемого ею оператора Q, и специфику пространства режимов s. Связь эта реализуется через соотношения между количеством В и ценностью С информации, с одной стороны, ее эффективностью А и КПДQ, с другой, а также через соотношения между характеристиками оператора, в первую очередь R и w, и продуктивностью θ, кондиционирующей мощностью ø и надежностью среды обитания, включающей в себя пространство режимов данной информационной системы.
Обобщение понятия «информационная система»
Выше мы постарались показать, что информация есть то, на основании чего может возникнуть оператор, выполняющий при определенных внешних условиях определенные целенаправленные действия. Для того, чтобы осуществлять эти действия, оператор должен иметь более или менее выраженные рецепторные и аффекторные компоненты. Если эти компоненты структурно обособлены и соединены между собой так, что они составляют единый функциональный комплекс, такой оператор обычно называют кибернетическим устройством. Сигналы или воздействия, поступающие извне и «воспринимаемые» этим устройством или посылаемые изнутри и «включающие» его аффекторные компоненты, конечно, сами по себе не являются информацией и никакой информации не несут (хотя и могут быть использованы для создания дополнительной информации, если устройство на это способно). Этим такие воздействия принципиально отличаются от физических событий или объектов, служащих или используемых для передачи или хранения информации, по которым такая информация может быть реконструирована.
Мы видели также, что сама по себе информация пассивна. Она не может ни осуществлять целенаправленные действия, ни создавать кодируемые ею операторы, ни воспроизводить саму себя. Чтобы создать оператор или воспроизвести кодирующую его информацию, требуются специальные устройства («машины»), материал и энергия. Мы видели, что целью деятельности, кодируемой любой информацией, является в конечном счете ее воспроизведение. Поэтому дискретной информационной системой можно называть только такую совокупность информации, реализующих устройств и операторов, которая может обеспечивать воспроизведение этой информации. Естественно, что воспроизведение информации может осуществляться лишь при подходящих для этого условиях «среды обитания» данного информационного устройства. То же относится, конечно, и к построению операторов, – реализующие устройства могут их «создавать», считывая соответствующую информацию, только при соответствующих внешних условиях.
На первый взгляд может сложиться впечатление, что реализующее устройство и оператор – это одно и то же. На самом деле между ними есть две большие разницы. Во-первых, реализующее устройство может строить только оператор и ничего более. Во-вторых, реализующее устройство не в состоянии осуществлять свою функцию без постоянного контакта с информацией, а оператор – может или, точнее говоря, именно так и функционирует. В этом и заключается потенциальная возможность от общения оператора от информации (когда он уже построен) и независимого его функционирования, что исключено для реализующего устройства.
Так мы построили схему обобщенной информационной системы. Она всегда и неизбежно должна состоять из четырех блоков: блока хранения информации, реализующего устройства, оператора (одного или нескольких) и управляющего блока. Для того, чтобы такая система возникла, достаточно двух первых блоков. Для того, чтобы совершилось конечное действие (т.е. воспроизведение информации), достаточно первого и третьего блоков. Но ни один из этих блоков не может сам по себе обеспечивать полное осуществление целенаправленного действия, хотя каждый из них, в том числе и управляющий (или координирующий), может сохраняться в бездеятельном состоянии сколь угодно долго, точнее столь долго, сколько позволит слагающий его материал и окружающие условия.
Очевидно, что наша информационная система полностью соответствует блок-схеме универсального автомата фон Неймана (см. главу 3).
Теперь представим себе несколько мыслимых вариантов организации информационных систем. Информационной системой 1-го рода будем назвать ту, в которой блок хранения информации, – а в простейшем случае просто ее носитель – выполняет одновременно функции управляющего и реализующего устройства, а также функцию оператора. Развитой формой этой системы будет та, в которой эти блоки структурно и функционально разделены, но пространственно составляют единое целое. Отсюда естественно совершается переход к информационной системе 2-го рода, когда указанные четыре блока могут существовать раздельно в пространстве и времени, но связаны в единое целое функционально. Ниже мы покажем, что в своем развитии реальные информационные устройства, действительно, проходят все эти стадии.
Возможность существования простейшего варианта информационной системы 1-го рода снимает основную логическую трудность анализа проблем возникновения информации. Действительно, можно утверждать, что возникнуть информация могла лишь в форме фиксации на таком носителе, который по природе своей мог исполнять также роли реализующего устройства и оператора. Можно также утверждать, что иных типов информационных систем, помимо перечисленных выше, быть не может. Тем самым определяется генеральное направление динамики информации: от простейших информационных систем 1-го рода к развитым информационным системам 2-го рода. Из последующего изложения будет ясно, что динамика информационных систем 1-го рода представляет собой не что иное, как биологическую эволюцию, а динамика информационных систем 2-го рода – эволюцию человеческих сообществ.
Литература
1. Колмогоров А. Н. Теория информации и теория алгоритмов. М.,«Наука», 1987.
2. Кадомцев Б. Б. Динамика и информация. М.: Ред. ж. УФН, 1997.
3. Нейман фон Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М., Гос. изд. физ.-мат.лит., 1960, с.59.
4. Меллер Г. Ген как основа жизни. В кн.: Избр. работы по генетике, М.-Л., Огизсельхозгиз, 1937. С. 148-177.
5. Тьюринг А. Может ли машина мыслить? М., Гос. изд. физ.-мат.лит., 1960.
6.
Шеннон К. Математическая теория связи. В кн.: Работы по
теории
информации и кибернетике. М., Изд. ин. лит., 1963. С.
243-332.
7. Кольцов Н. К. Организация клетки. М., Биомедгиз. 1936.
8. Блюменфельд Л. А. Проблемы биологической физики. М., «Наука»,1977.
9. Корогодин В. И. Биофизика, 1983, т.28, в.1, С. 171-178.
10. Сеченов И. М. Рефлексы головного мозга. Петербург, 1866.
11. Ухтомский А. А. Доминанта. М.-Л., Изд. АН СССР, 1966.
ПРИНЦИП ПОРИЗМА
Формулировка принципа поризма
Чтобы несколько отдохнуть от абстрактных построений, связанных с анализом свойств информации и принципов функционирования информационных систем, рассмотрим старое, но крайне редко используемое в науковедении понятие поризм.
В нашу литературу понятие «поризм» ввел философ Б. С. Грязнов [1]. «В античной литературе, – писал он, – поризмом называли утверждение, которое получалось в процессе доказательства теоремы или решения задачи, но получалось как непредвидимое следствие, как промежуточный результат. Хотя поризм получается как логическое следствие, но, поскольку он не является целью познавательной деятельности, для исследователя он может оказаться неожиданным» (стр. 62).
Понятие это можно определить и несколько иначе. Так, поризмом можно называть такое утверждение, сформулированное в ходе решения какой-либо задачи, которое по содержанию своему охватывает намного более широкий круг явлений, нежели тот, к которому эта задача относилась. Тем самым формулировка поризма оказывается значительно более ценной, чем решенная с его помощью и, тем самым, вызвавшая его к жизни задача. Поэтому поризм с полным правом можно называть «счастливой находкой».
Феномен поризма может иметь место не только в рассудочной человеческой деятельности, но и в царстве живой природы. Пусть некоторая популяция организмов начинает испытывать давление со стороны какого-либо нового фактора. «Злобой дня» становится адаптация к этой новой ситуации. Задача по адаптации может решаться, как правило, несколькими разными способами. Ряд решений может оказаться равноправным, и тогда идет дифференциация популяции на субпопуляции, дающие начала подвидам и т.д. Однако одно из таких решений, не имеющее в данной ситуации особых преимуществ по сравнению с другими, может быть связано с такими изменениями структуры и функций организмов, которые открывают новые пути для их дальнейшего развития, в том числе и в направлениях широких идиоадаптаций или араморфозов. Такие изменения генетической информации также можно относить к поризмам.
Теперь мы можем сформулировать «принцип поризма», а ниже постараемся показать, что принцип этот играет одну из главных ролей в динамике всех видов информации. Принципом поризма будем называть следующее утверждение.
Любое решение любой задачи может оказаться пригодным и для решения других задач, к первой прямого отношения не имеющих. Если решаемые таким образом задачи относятся к некоторому множеству, включающему первую задачу как частный случай, такое решение будем называть поризмом.
Принцип поризма замечателен тем, что подчеркивает значение такого возможного решения какой-либо задачи, которое порождает множество разного рода задач, допускающих такие же решения, – т.е. приводит к формулированию новой проблемы, уже имеющей свое решение. Рассмотрим несколько примеров поризма в науке и в живой природе.
Примеры из области развития науки
В уже упоминавшейся работе Б. С. Грязнова приведено два примера поризма в развитии науки.
Один пример относится к Н. Копернику. Согласно распространенному мнению, задача, решение которой привело Н. Коперника к утверждению факта вращения Земли, имела куда менее грандиозный характер. Это была задача точного исчисления дня Пасхи, т.е. первого воскресенья после первого полнолуния, наступающего после дня весеннего равноденствия. Исчисление дня весеннего равноденствия проводилось еще Птолемеем, но ко времени Н. Коперника, т.е. к началу XVI века, выявились существенные расхождения – до 10 суток – между такими расчетами и действительным сроком его наступления. В поисках причин, вызывающих это расхождение, Н. Коперник изменил неподвижную систему отсчета – вместо Земли, принимаемой за начало координат Птолемеем, он в качестве такого взял систему неподвижных звезд. Следствием такового изменения координатной сетки явилась необходимость постулировать вращение Земли как вокруг собственной оси, так и вокруг Солнца, что Н. Коперник и сделал. Таким образом, первоначально Н. Коперник не занимался проблемой устройства Вселенной, а решал задачу нахождения точки весеннего равноденствия. Утверждение о вращении Земли появилось у Н. Коперника как промежуточное умозаключение в ходе решения этой задачи.
Другой пример, приводимый Б. С. Грязновым, относится к открытию М. Планком квантируемости энергии. Известно, что постулат о существовании квантов энергии Планк сформулировал вынужденно, получив эмпирическую формулу, сводящую закон излучения для коротких волн к формуле Вина, а для длинных волн – к формуле Рэлея. Для объяснения найденной им формулы М. Планк должен был приписать физический смысл входящим в нее константам. Одной из этих констант и оказалась h - постоянная Планка. Из этой формулы следовало, что энергия всех систем, совершающих гармонические колебания, квантуется порциями E = nhv, а также что если даже и существуют какие-либо другие виды энергии, то они не могут взаимодействовать с веществом, а следовательно, и не могут быть обнаружены. Замечательно то, что сам М. Планк, будучи творцом квантовой теории, еще много лет не мог принять всех следующих из нее выводов, в том числе и реальности существования квантов энергии.
К этим примерам можно добавить еще один, и этого, пожалуй, будет достаточно для иллюстрации роли поризма в развитии научных идей. Это история создания И. Ньютоном дифференциального исчисления. Метод дифференциального исчисления (метод «исчисления флюксий») И. Ньютон, как известно, изобрел в 1665 г., когда ему было всего 22 года, но долго его не публиковал, пользуясь им лишь для решения конкурсных математических задач. Лишь много позже, после выхода соответствующих статей Г. Лейбница, он вступил с ним в жаркую полемику, отстаивая свой приоритет. Не ясно, осознавал ли И. Ньютон с самого начала общее значение этого метода или рассматривал его лишь как ординарный, хотя и новый математический прием.
Можно с уверенностью утверждать, что случаев, подобных описанным выше (хотя, возможно, и не такого масштаба), в истории науки достаточно много, и аналогичные примеры можно привести из разных областей знания. Но вот что замечательно: ситуаций, подобных принципу поризма в развитии идей, много и в живой природе, хотя до сих пор, кажется, на это не обращалось должного внимания.
Примеры из области биологии
Как уже упоминалось, в биологии поризмами можно называть такие изменения организации живых организмов, которые, решая задачи «сегодняшнего дня», в то же время открывают новые возможности для их дальнейшего развития. К сожалению, точно реконструировать каждый такой случай весьма затруднительно (о поризмах, произошедших давно, мы можем судить лишь по их результатам, а поризмы, которые произошли недавно, еще не успели себя выявить). Поэтому здесь нам придется пользоваться в значительной мере лишь правдоподобными догадками.
К явным поризмам, пожалуй, можно отнести случаи повышения надежности геномов при переходах от низших кариотаксонов к высшим [2]. Действительно, частота возникновения губительных изменений генетической информации (т.е. летальных мутаций) в общем случае должна быть пропорциональной отношению М·К-1, где М - информационная емкость или число оснований в нуклеиновой кислоте, а К – надежность генетического аппарата. Таким образом, при постоянстве К частота летальных мутаций будет возрастать прямо пропорционально М –информационной емкости генетического аппарата. При достижении М некоторого критического значения, угрожающего жизнеспособности популяции, выход из этой ситуации становится жизненно важным для данных обитателей данной среды. Решения этой задачи могут быть самыми разными, в том числе уменьшение размеров генетических структур, развитие систем, предотвращающих губительное действие помех, а также увеличение К – надежности организации генетического аппарата. Последнее решение – повышение К – не только удовлетворяет требованиям «злобы дня», но и открывает возможности для дальнейшего увеличения информационной емкости генетических структур, т.е. для увеличения числа оснований в нуклеиновых кислотах, по крайней мере, до тех пор, пока мутационное давление опять не возрастет до критического значения. На основании результатов радиобиологических экспериментов [3] можно думать, что в ходе эволюции повышение К происходило не менее трех раз, причем каждый раз это осуществлялось путем усложнения структурной организации генома, что переводило живые организмы из 1-го кариотаксона (К = 1·102эВ) во 2-й (К = 1,1·10s. эВ), из 2-го – в 3-й (К = 4,6·103 эВ), а из 3-го – в 4-й (К=6,1·106эВ). Это сопровождалось увеличением информационной емкости генетического аппарата клеток, от первичных вирусоподобных организмов (1-й кариотаксон) до высших эукариот (4-й кариотаксон) примерно в 105–106 раз – от 105— 107 до 1011–1012 оснований. Такое возрастание информационной емкости генома, в свою очередь, служило основой для прогрессивной эволюции живых организмов, так как позволяло не только накапливаться в избытке генетической информации, но и периодически уменьшать мутационное давление путем «сброса» более или менее значительных фрагментов генетического аппарата в ходе приспособления к различным экологическим нишам [4]. Здесь, следовательно, увеличение надежности генома, решая задачу выхода биологических объектов из-под мутационного пресса, в то же время открывало новые пути для дальнейшего развития живых организмов в направлении все большего повышения их организации. Это, конечно, яркий пример поризма в биологии.
Другим примером может служить возникновение оогамии, произошедшее еще на стадии одноклеточных эукариот. Как известно (см., напр. [5, 6]), этим организмам присуще огромное разнообразие форм полового размножения – изогамия, гетерогамия разной степени выраженности и истинная оогамия, когда женские особи формируют богатые цитоплазмой, крупные и неспособные самостоятельно перемещаться яйцеклетки, а мужские – многочисленные мелкие, почти лишенные цитоплазмы, подвижные сперматозоиды. По-видимому, в экологических нишах, заселенных такими организмами, разные способы размножения в равной мере удачно решали задачу воспроизведения и мультипликации кодирующей их генетической информации, почему они и сохранились до сих пор. Но лишь один из этих способов – оогамия – содержал в себе потенциальную возможность формирования многоклеточности. Для этого достаточно было возникнуть мутации (которая не могла бы проявиться у организмов, не обладающих оогамией), препятствующей расхождению клеток -продуктов первых дроблений оплодотворенной яйцеклетки, чтобы было положено начало существования первым примитивным многоклеточным организмам, а последующая морфофизиологическая дифференциация таких клеток могла уже окончательно закрепить этот признак. Многоклеточность, в свою очередь, явилась предпосылкой возникновения высших растений, грибов и животных, а также человека, т.е. предпосылкой формирования структур, сделавших возможность появления поведенческой, а затем и логической информации. Поэтому возникновение оогамии также может служить ярким примером поризма в биологической эволюции.
Третий, и последний, пример, который мы хотели бы привести, это – возникновение фотосинтеза [7]. Примитивный фотосинтез, еще не связанный с окислением молекулы воды и выделением кислорода, возник, по-видимому, около 3,5 млрд. лет назад, у прокариот, являвшихся предками современных пурпурных и зеленых бактерий. Эта форма фотосинтеза явилась одним из решений задачи энергообеспечения бурно развивающегося тогда мира прокариот, относящихся ко 2-му кариотаксону, наряду с такими решениями этой же задачи, как хемосинтез и анаэробный гликолиз. В результате длительной эволюции фотосинтезирующего аппарата около 3 млрд. лет назад у некоторых групп прокариот (по-видимому, предков ныне живущих циано-бактерий) сформировался механизм, способный окислять воду, и в первобытную атмосферу Земли начал поступать кислород. Энергетические преимущества, связанные с оксигенным фотосинтезом, позволили не только успешно размножаться его обладателям, но и привели около 2 млрд. лет назад к формированию кислородсодержащей атмосферы и трансформации анаэробной биосферы в аэробную, со всеми вытекающими отсюда последствиями, в том числе формированием и широким расселением многоклеточных эукариот, включая высшие растения и предков современных таксонов животных. В данном случае такая «счастливая находка», как оксигенный фотосинтез, не только чрезвычайно обогатила возможности дальнейшего развития обладающих ею организмов, но оказала решающее влияние на будущее всего населения нашей планеты, приведя к формированию единой, охватывающей весь Земной шар, богатой кислородом атмосферы. Все последующее развитие жизни на Земле, в том числе и формирование человеческих цивилизаций, протекало уже в рамках аэробной биосферы.
Принцип поризма и полипотентность информации
Рассмотрим теперь принцип поризма с позиции тех свойств, которые присущи информации.
Прежде всего, вспомним свойство полипотентности (глава 2) – возможность использовать оператор, кодируемый данной информацией, в разных ситуациях и для достижения разных целей. Важнейшим следствием этого свойства было, как мы помним, утверждение, что как ценность, так и эффективность любой информации может быть задана только в форме распределения на множестве пар «ситуация-цель». Мы отмечали также, что множество это никогда не может быть полным – никогда априори нельзя предугадать, для какой еще пары «ситуация-цель» ценность данной информации окажется больше нуля. Нетрудно видеть, что принцип поризма является еще одним следствием полипотентности информации – этим термином объединяются те случаи, когда реализация свойства полипотентности информации приводит к переходу кодируемых ею информационных систем в пространства режимов большей размерности, освоение которых сопровождается дальнейшим увеличением количества информации и/или возникновением ее новых, иерархически более высоких, форм. Таким образом, поризмы – это лишь определенный класс из множества возможных проявлений свойства полипотентности.
Вряд ли необходимо подробно анализировать соотношение принципа поризма с такими вариантами реализации полипотентности, которые в области биологической эволюции получили названия идиоадаптаций и араморфозов [8]. Отметим лишь, что оба эти варианта развития информационных систем будут рассмотрены в главе 5, посвященной динамике информации. Понятия, охватываемые этими терминами, а также терминами «полипотентность» и «поризм», весьма широки, частично перекрываются и, строго говоря, относятся к явлениям разных классов. Полипотентность, как мы видели, это – одно из свойств информации, поризм – это определенный класс частных случаев реализации полипотентности, т.е. относится скорее к особенностям операторов, а не информации, а идиоадаптаций и араморфозы – результаты реализации свойства полипотентности в операторы и скорее приложимы к описанию определенных структур операторов, нежели свойств кодирующей их информации.
Литература
1. Грязное Б. С. Природа, 1977, №4, С. 60-64.
2. Корогодин В. И. Природа, 1985, №2, с. 3-14.
3. Корогодин В. И. Радиобиология, 1982, т. 22, в.2, С. 147-154.
4. Шальнов М. И. Радиобиология, 1977, т. 17, в.5, С. 652.
5. Курсанов Л. И. Комарницкий Н. А., Флеров Б. К. Курс низших растений. М.-Л., Госмедгиз, 1933.
6. Райков И. Б. Ядро простейших. Л., «Наука», 1978.
7. Холл Д., Рао К. Фотосинтез. М., «Мир», 1983.
8. Северцов А. Н. Морфологические закономерности эволюции. В кн.: Собр.соч., т.V, М.-Л., Изд. АН СССР, 1949.
ДИНАМИКА ИНФОРМАЦИИ
Возникновение генетической информации
Из сказанного выше следует, что проблема возникновения самовоспроизводящихся информационных биологических систем, вместе с кодирующей их информацией, есть не что иное, как проблема происхождения жизни. Действительно, как писал К. X. Уоддингтон [1], «Система может быть названа живой, если в ней закодирована передаваемая по наследству информация, если эта информация иногда претерпевает изменения и если измененная информация также наследуется» (стр.13).
Как уже отмечалось (см. главу 3), идея о том, что живые объекты представляют собой такое единство генетических (т.е. информационных) и негенетических компонентов, что последние предназначены для обеспечения воспроизведения первых, была сформулирована Г. Меллером [2]. Тем самым были поставлены три взаимосвязанных вопроса: что такое генетические структуры? как они могли образоваться? как они контролируют синтез структур негенетических? Первый и третий вопросы сейчас, можно считать, решены (см., напр., [3]). Наследственные структуры представляют собой молекулы РНК или ДНК, в которых генетическая информация записана последовательностью четырех оснований, а синтез негенетических структур осуществляется через промежуточный этап – матричный синтез т-РНК и и-РНК с участием специализированных устройств – рибосом. Остается ответить на вопрос о том, могли ли и как именно спонтанно возникнуть первичные молекулярные носители информации (а), информация, в них содержащаяся (б), а также реализующие ее устройства (в). Все нынешние попытки решить проблему происхождения жизни вращаются, по существу, вокруг этих трех вопросов.
Как было упомянуто в предыдущих главах, новая информация может быть создана в процессе естественного дарвиновского отбора. Остановимся на этом подробнее. Какие свойства являются необходимыми для отбора и эволюции?
Система, обладающая способностью к самоотбору, должна стабилизировать свои определенные структуры, отбирая наиболее благоприятные варианты среди распределения возникающих конкурентов, имеющихся в каждый момент времени. В такой системе должен быть заложен элемент обратной связи, осуществляющий закрепление устойчивости наиболее выгодных вариантов. Необходимое свойство обратной связи – это способность к автокатализу, т.е. самовоспроизведению.
Необходимыми свойствами для дарвинского поведения на молекулярном уровне являются:
1. Метаболизм
- как образование, так и разложение молекулярных видов
должны быть независимы друг от друга и спонтанны; отбор
должен действовать только на промежуточные состояния, которые образуются из
высокоэнергетических предшественников и превращаются в
низкоэнергетические отходы. Система должна использовать
освобождающиеся энергию и вещество.
Система должна быть далека от равновесия.
2. Самовоспроизведение - способность инструктировать свой собственный синтез.
3. Мутабильность. Точность самовоспроизведения всегда ограничена хотя бы из-за теплового шума. Ошибки копирования – основной источник новой информации. Но для темпа мутаций существует пороговое значение, при котором скорость эволюции максимальна и не может быть превышена без потери всей информации.
Здесь мы должны отметить новое, по сравнению с критериями эволюции добиологического периода, требование самовоспроизведения, т.е. автокатализа. Дарвиновский отбор таких самореплицирующихся единиц гарантирует эволюцию информации, будь то короткие цепочки нуклеиновых кислот или сложные организмы.
Первыми самовоспроизводящимися единицами были короткие цепочки нуклеиновых кислот. Они воспроизводимо реплицировали цепи длиной только 50-100 нуклеотидов [4]. Для дальнейшей эволюции, – увеличения точности копирования и количества информации – требовались катализаторы, которые тоже должны были воспроизводиться (аппарат трансляции). Первыми самовоспроизводящимися структурами нуклеиновых кислот с устойчивым информационным содержанием были молекулы типа т-РНК. Для самой простой системы аппарата трансляции требуется количество информации на порядок больше, чем в этих первичных молекулах т-РНК. Аппарат трансляции должен был включать несколько таких единиц, имеющих сходные функции, но разную специфичность. Этого нельзя было достичь посредством сочленения их в одну большую единицу (из-за порога ошибок) или в компартмент (из-за конкуренции между ними). Это было возможно лишь при образовании функциональных связей между всеми самовоспроизводящимися единицами.
В 70-х годах М. Эйген с сотрудниками [5] разработал и опубликовал ряд работ, в которых показал, что дальнейшее накопление и эволюция информации возможны на основе гиперциклов.
Гиперцикл – это средство объединения самовоспроизводящихся единиц в устойчивую систему, способную к эволюции. Гиперцикл построен из автокатализаторов, или циклов воспроизведения, которые связаны посредством циклического катализа, наложенного на систему. Гиперцикл основан на нелинейном автокатализе (второго или более высокого рангов), который обязательно включает связи типов стимуляции, репрессии и дерепрессии. Это и есть то отличительное свойство живых организмов, о котором пишет Н. Н. Моисеев, – только живые организмы имеют отрицательные обратные связи [6]. Никакая другая организация (компартмент, нециклические цепи) не способны обеспечить:
- конкуренцию в популяциях самореплицирующих единиц дикого типа, что гарантирует сохранение их информации;
- сосуществование нескольких популяций самореплицирующихся единиц и популяций их мутантов;
- объединение этих единиц в систему, способную к эволюции, где преимущество одной единицы может быть использовано всеми членами системы.
Для существования каталитического цикла достаточно, чтобы один из интермедиатов был катализатором для одной из последующих реакций. Каталитический цикл, имеющий биологическое значение, – репликация одноцепочечной РНК [5, 7]. Интермедиаты (плюс- и минус- цепи) участвуют в цикле как матрицы для своего взаимного воспроизведения. Нуклеозидтрифосфаты являются высокоэнергетическим строительным материалом. Каталитический гиперцикл состоит из самореплицирующихся единиц с двойными каталитическими функциями: в качестве автокатализатора интермедиат способен инструктировать свое собственное воспроизведение, а также оказывать каталитическое воздействие на воспроизведение следующего интермедиата.
Одним из уникальных свойств гиперциклов является их селекционное поведение. Отбор гиперцикла – «раз и навсегда». В обычной дарвиновской системе благоприятные мутанты имеют селективное преимущество и могут размножаться, их способность к росту не зависит от размера популяции. В гиперцикле селективное преимущество является функцией численности популяции из-за существенно нелинейных свойств гиперциклов, и уже существующий гиперцикл не может быть заменен «новичком», так как новый вид всегда появляется сначала в количестве одной (или нескольких) копий. Это свойство может объяснить универсальность генетического кода. Этот код окончательно установился не потому, что был единственно возможным, а потому, что здесь работал механизм «раз и навсегда» [8].
Предложенная модель гиперцикла связана с молекулярной организацией примитивного аппарата репликации и трансляции.
Гиперциклическая организация обусловливает стабилизацию и адаптацию всех компонентов системы. Она усложняется в ходе эволюции путем мутаций и дупликаций генов.
Образование аппарата трансляции открыло путь к развитию функции гетерокатализа и биологической эволюции. Первыми живыми информационными системами были первые клетки прокариот. В информационных системах живых клеток установились новые законы естественного – дарвиновского – отбора и новые типы информации.
Снова обратимся к двум не зависящим друг от друга свойствам – аутокатализу, т.е. каталитическому синтезу самого себя, и гетерокатализу, т.е. каталитическому синтезу совершенно иного соединения. Каковы условия создания генетической информации? Можно представить себе колыбель генетической информации или зону комфорта как экстремум распределения гетерокаталитической активности (р) на некотором пространстве режимов, где р близко к максимально-возможному значению. Тогда на границах зоны комфорта, где величина р будет все более уменьшаться, вполне допустимы ситуации, когда определенные виды гетерокаталитической активности будут вызывать не уменьшение, а возрастание р (т.е. где Р>р). Естественный отбор, конечно, будет подхватывать и «закреплять» такие последовательности оснований, которые на гетерокаталитическом уровне сопровождаются указанным эффектом. Очевидно, что в разных участках периферии зоны комфорта одни и те же следствия, т.е. соотношение Р>р, смогут обеспечиваться разными гетерокаталитическими особенностями. Репродукция носителя вместе с содержащейся в нем информацией будет достигаться разными путями.
В условиях, отдаленных от зоны комфорта, отбор будет идти по пути формирования такого рода гетерокаталитических структур, химическая активность которых будет способствовать локальной имитации зоны комфорта в их непосредственной близости. Каждый акт репродукции таких структур будет, с одной стороны, возвращать условия в этих локальных областях к исходному состоянию, а, с другой, будет «сообщать» дочерним молекулам, «что надо делать, чтобы воспроизвести себя в этих условиях», и процесс приобретает циклический характер.
Предыдущий абзац, по существу, представляет собой описание работы информационных систем 1-го рода, реализованных на молекулярном уровне. Хотя такие молекулы и можно назвать «живыми», но это, конечно, далеко еще не «живые организмы». Живыми организмами, индивидуумами, или неделимыми, мы называем обычно не молекулярные носители информации, а комплексы этих носителей с порождаемыми ими операторами, комплексы, отделенные от внешней среды и располагающие, таким образом, средой внутренней [9]. Функция оператора носителей информации здесь не исчезает, но проявляется в создании системы структур, которые этот носитель окружают и обеспечивают его обособление от внешней среды. Только такие структуры и обеспечивают периодическое возникновение во внутренней среде зоны комфорта. Благоприятствовать появлению таких живых может лишь постепенное продвижение их предшественников из зоны комфорта (где p≈1) в удаленные от нее области пространства режимов, для которых р≈0. Условием возникновения живых организмов, следовательно, является постепенное проникновение их предшественников в такие участки пространства режимов, где спонтанное возникновение и размножение носителей генетической информации практически исключено.
Здесь мы использовали термин, имеющий смысл только по отношению к живым индивидуумам, т.е. к организмам или биологическим объектам, – термин «генетическая информация». Все такие объекты, от простейших прародителей прокариот до современных гигантов мира растений и животных, можно относить к информационным системам 1-го рода – все они обладают прекрасно развитыми операторами, структурно независимыми от носителей информации, но пространственно составляющими с ними единое целое, отделенное от внешней среды. Кодирующую строение и функции этих операторов информацию мы и называем генетической, а сами операторы – негенетическими или соматическими компонентами клеток и организмов. Определение терминов «генотип», «фенотип» и других, связанных с ними, можно найти в любом учебнике генетики (см., напр., [3]), и останавливаться на этом нет смысла.
Логическая последовательность событий, приводящих от возникновения простейших потенциальных носителей информации к простейшим организмам – информационным системам 1-го рода, конечно, не зависит от того, какими конкретными путями осуществлялись те или иные ее этапы. Не имеет смысла также обсуждать вопрос, относящийся к моно- или полифилетическому происхождению организмов, – в действительности, по-видимому, реализовывались все логические возможности. Полезнее сосредоточить внимание на вычленении ключевых событий генезиса и эволюционирования феномена жизни и тех условий, которые определяли осуществление этих событий.
Требования к информации и операторам
Сказанное выше позволяет сформулировать те требования к информации и кодируемым ею операторам, соблюдение которых является необходимым условием для того, чтобы их совокупность могла составить информационную генетическую систему.
Информация должна быть закодирована на носителе, допускающем возможность реализации двух ее ипостасей, т.е. возможность проявлять себя то в осуществлении гетерокатализа, то в осуществлении аутокатализа. В первом случае будет реализовываться присущая информации действенность, т.е. построение кодируемого ею оператора и управление его функционированием, а во втором – размножаемость. Пример такого носителя мы уже видели – это полимерные молекулы апериодического строения, такие, как молекулы РНК или ДНК ныне живущих организмов. Можно полагать, что в простейшем случае «тумблером», осуществляющим «переключение» функций информации с гетерокатализа на аутокатализ и обратно, может служить концентрация в окружающей среде определенных химических соединений: когда концентрация мономеров разных типов, составляющих молекулу-полимер, достигает критического значения (имитируя зону комфорта), «срабатывает» аутокатализ, число молекул-носителей начинает возрастать, а концентрация окружающих их мономеров -уменьшаться; это вызывает «включение» функции гетерокатализа, и молекулы-полимеры вновь начинают индуцировать в окружающей их среде синтез мономеров, и начинается новый цикл. Эта схема может служить ключевой к работе любой информационной системы. Другое дело, что, прежде чем информация получит возможность проявить себя как ауто- или гетерокатализатор, может потребоваться «перевод» ее на разные системы записи или же функции эти будут проявляться не непосредственно, а через посредство ряда промежуточных этапов, с участием многочисленных устройств-медиаторов (различных ферментов, например), – но суть дела от этого не изменится.
Функции гетерокатализа, таким образом, сводятся к тому, чтобы обеспечивать успешное выполнение аутокатализа. Специфика гетерокаталитическои функции и составляет семантику информации.
Здесь важно подчеркнуть еще одно, уже упоминавшееся, требование к генетической информации: изменение ее гетерокаталитическои функции не должно никак сказываться на свойстве осуществлять аутокатализ (при необходимых условиях, конечно). Это может реализовываться лишь в одном случае – когда та и другая функции осуществляются независимо друг от друга, совершенно разными механизмами, т.е. когда механизм аутокатализа не зависит от семантики информации, хотя именно семантика и определяет конкретные формы его «срабатывания». В случае, если для реализации информации и ее репликации используются ее копии на разных носителях, это требование выполняется автоматически. В случае же, когда используется единственная копия, выполнение этого требования обеспечивается разделением обеих функций во времени, т.е. цикличностью действия информационной системы.
Соответственно этому и операторы, обеспечивающие выполнение этих функций, могут иметь либо разные считывающие устройства, и тогда они способны функционировать одновременно, либо одно, общее, считывающее устройство, и тогда должны работать «посменно». При этом роль операторов, реализующих функцию гетерокатализа, состоит в обеспечении постоянства внутренней среды информационного объекта при максимальном разнообразии внешних условий; а роль операторов, реализующих функцию аутокатализа, состоит в обеспечении осуществления этого процесса при максимально стабильных состояниях внутренней среды. В случае живых организмов удовлетворение этим требованиям операторов реальных информационных систем проявляется в том, что при удивительном разнообразии их фенотипов и условий обитания те механизмы, которые осуществляют репликацию генетических структур и прежде всего удвоение ДНК, отличаются поразительной универсальностью. Практически это используется в генетической инженерии.
И, наконец, почти очевидное требование – требование полного взаимного соответствия информации и операторов, слагающих одну информационную систему. Это должно выражаться как в общности языка, на котором записана информация и на который «настроены» считывающие и реплицирующие устройства, так и в идентичности способов фиксации информации, поступающей на «вход» информационной системы и образующейся при ее функционировании.
Но сформулированные выше требования к информации и операторам – лишь необходимые, но еще не достаточные для того, чтобы слагаемая ими информационная система могла успешно функционировать. Для этого нужно, чтобы было выполнено еще одно требование – требование комплементарности информационной системы и тех условий, в которой ей надлежит обитать.
Принцип адекватности и экологические ниши
Взаимное соответствие информации и операторов, составляющих единую информационную систему, а также комплементарность этой системы и условий той внешней среды, где ей предстоит функционировать, можно назвать «принципом адекватности», несоблюдение которого чревато разрушением и гибелью информационных систем. Чем разнообразнее внешние условия, чем больше размерность пространства режимов таких систем, тем сложнее должны быть устроены их операторы и, следовательно, тем большее количество информации требуется для их кодирования. Конкретная специфика условий будет отражаться в семантике информации и структурных особенностях операторов. Степень адекватности информации, операторов, его кодируемых, и условий внешней среды будет выражаться в ценности данной информации при ее использовании в данной точке пространства режимов.
Рассмотрим теперь более внимательно отношения, которые могут складываться между информационной системой и внешней средой. Однако, прежде чем это сделать, необходимо дать достаточно строгие определения трем уже использовавшимся нами терминам – «пространство режимов», «среда обитания» и «экологическая ниша».
Пространство режимов – это, как мы уже отмечали (глава 2), математическое многомерное пространство, по каждой оси которого отложены нарастающие значения одного из факторов, «жизненно необходимых» для осуществления события цели. Размерность этого пространства, соответственно, равна числу таких факторов. На пространстве режимов может быть распределена вероятность р спонтанного осуществления Z, а также вероятность Р его осуществления при использовании данного оператора Q,. Поверхности, описывающие такие распределения, могут не перекрываться, а могут перекрываться частично или полностью, так что объем пространства режимов, содержащий его область, где р > О, может входить в область для Р > 0, а может занимать и совершенно обособленное положение, особенно если размерности пространства режимов для спонтанного и целенаправленного осуществления Z не одинаковы.
Размерность пространства режимов какого-либо оператора -очень важная характеристика этого оператора, отражающая число факторов, с которыми ему необходимо взаимодействовать при осуществлении данного целенаправленного действия. Объем области пространства режимов, где Р > 0, отражает то разнообразие комбинаций значений жизненно необходимых факторов, при которых событие Z может осуществляться. Это зона осуществления Z. В случае спонтанного осуществления Z та область зоны осуществления, где p≈1, и есть «зона комфорта».
Особое значение имеет область зоны осуществления Z, где р или Р, отнесенные к единице времени, превышают значения р' или Р', выражающие вероятность гибели в единицу времени объектов класса Z. Это – зона мультипликации (спонтанной или индуцированной) событий класса Z.
Среда обитания, в отличие от пространства режимов, – это реальная среда, содержащая жизненно необходимые факторы в соотношениях, соответствующих зоне осуществления Z. Кроме них, среда обитания может содержать еще ряд факторов, как безразличных для осуществления Z, так и препятствующих ему.
Экологическая ниша – это та область среды обитания, в которой соотношение всех жизненно необходимых факторов соответствует зоне мультипликации Z, а давление помех не настолько выражено, чтобы существенно ее деформировать.
Таким образом, как зоны обитания, так и экологические ниши – это реальные участки пространства, разбросанные по нашей планете, причем одинаковые зоны обитания или экологические ниши идентичны только в отношении сочетаний жизненно необходимых факторов, но могут существенно различаться по факторам, безразличным или выступающим в роли помех. Число факторов, входящих в реальные зоны обитания или экологические ниши, может быть самым разным, равным или превышающим размерность пространства режимов, которая, таким образом, ограничивает его снизу. Поэтому один и тот же участок реального пространства может включать в себя несколько разных зон обитания и экологических ниш.
Теперь мы можем достаточно строго сформулировать принцип адекватности информационных систем и внешней среды. Адекватными данной информационной системе будем называть те области внешней среды, которые по отношению к ней могут выступать в роли экологических ниш. Только в таких областях информационная система может воспроизводить себя, постоянно увеличиваясь в численности. Мерой адекватности здесь, следовательно, может служить степень превышения р над р' или Р над Р' или, если речь идет о ситуациях, когда р≈0, величина ценности С информации, кодирующей данную информационную систему.
Элементарные экологические ниши
Мы уже достаточно много говорили об идентичности информационных систем 1-го рода и живых организмов, для того чтобы употреблять эти термины как синонимы. Соответственно факторы среды обитания (и, конечно, пространства режимов) можно разделить на две группы: те, происхождение которых никак не связано с деятельностью живых организмов, и те, наличие которых так или иначе обусловлено их жизнедеятельностью. Факторы первой группы будем называть абиогенными, а второй – биогенными.
Очевидно, что в период, предшествовавший зарождению жизни на нашей планете, т.е. более 4 млрд. лет назад, биогенные факторы вообще отсутствовали. Периодически возникающие в разных участках Земли зоны комфорта, где могли зарождаться и даже мультиплицироваться простейшие потенциальные носители информации, а также спонтанно складывающиеся потенциальные экологические ниши, которые могли «заселяться» простейшими информационными системами, слагались, конечно, только из факторов абиогенной природы. Биогенных факторов просто еще некому было производить.
Это позволяет нам ввести понятия «элементарные пространства режимов» и «элементарные экологические ниши», называя таковыми соответствующие объекты, не содержащие ни одного биогенного фактора. Следовательно, элементарные экологические ниши – это такие участки среды обитания, которые содержат все факторы, необходимые и достаточные для заселения их простейшими организмами, причем все эти факторы имеют абиогенную природу. Такие, еще необитаемые, но пригодные для заселения участки внешней среды будем называть потенциальными элементарными экологическими нишами.
Совершенно ясно, что абиогенное формирование потенциальных экологических ниш должно было предшествовать возникновению элементарных информационных систем, иначе таким системам, случайно и спонтанно образующимся в зонах комфорта, просто негде было бы «закрепляться» и начинать функционировать. Разнообразие элементарных экологических ниш должно было гарантировать семантическое богатство информации, кодирующей их первичных обитателей.
Элементарные организмы – обитатели 1-го яруса жизни
В главе 5 мы рассмотрели тот отрезок пути, по которому могли бы пройти наши информационные системы от спонтанного возникновения первых нуклеиновых кислот до простейших представителей живых организмов. На этом пути должно было возрастать как количество информации, приходящейся на один индивидуум, так и ее суммарное семантическое богатство. В итоге появились информационные системы 1-го рода – первичные живые организмы, способные размножаться в условиях, непригодных для спонтанного возникновения носителей кодирующей их информации.
Простейших гипотетических представителей первичных живых организмов будем называть элементарными, а условия, пригодные для их обитания – элементарными экологическими нишами. Признаком элементарности таких организмов будет их независимость от жизнедеятельности других живых существ, обладающих иными генотипами, а признаком элементарности экологических ниш - их абиогенное происхождение. Элементарные живые организмы, таким образом, «разрабатывая» свои элементарные экологические ниши и трансформируя их компоненты в живое вещество и продукты своей жизнедеятельности, составляли первый ярус строящегося здания жизни, или, точнее, его фундамент.
Можно представить себе, что на молодой Земле зон комфорта было довольно много, и из них по разным направлениям весьма длительное время распространялись потенциальные носители генетической информации. Попадая в подходящие условия, они в непосредственном своем окружении индуцировали различные химические реакции (благодаря свойству гетерокатализа), в том числе так или иначе влияющие на их собственное воспроизведение. Удачные сочетания компонентов этих носителей отражали условия их обитания. В силу полипотентности информации, а также в результате комбинаторной ее изменчивости воссоздать истинный генезис того или иного генотипа никогда не удастся. Однако то и другое должно было обеспечить высокую экспансивность первичных живых существ. В результате этого, можно думать, процесс «освоения» потенциальных экологических ниш происходил весьма бурно и, раз начавшись, доложен был завершиться в относительно непродолжительные сроки.
По крайней мере, уже 3-3,5 млрд. лет назад на Земле существовали сообщества синезеленых водорослей и бактерий, которые образовывали мощные строматотиты, в которые входили, по-видимому, как фотосинтетики, так и хемосинтетики, ведущие интенсивную разработку поверхности Земли. Одновременно, в результате жизнедеятельности элементарных живых существ, шел и другой процесс – процесс «построения» новых потенциальных экологических ниш, уже включающих биогенные компоненты и предназначенных для заселения обитателями уже второго яруса жизни.
Здесь следует заметить, что представление об элементарных организмах и элементарных экологических нишах может не соответствовать действительности, если эти термины понимать буквально. Дело в том, что абиогенная органика, как теперь известно, должна была быть весьма распространенным химическим компонентом молодой Земли [10] и могла служить одним из основных источников материала как для «блочной» сборки в зоне комфорта первичных носителей информации, так и для построения операторов первичных информационных систем. Но в таком случае продукты деятельности элементарных организмов и продукты их распада (после гибели) мало чем отличались от таких абиогенных «кирпичиков» и могли сразу же включиться в биологический круговорот вещества. Здание жизни росло не как «древо», а как сложно сплетенная многомерная сеть. Но обусловленная этим сложность картины не меняет сути дела хотя бы потому, что само существование живых организмов и многоярусность жизни непосредственно следует из основных законов динамики информации.
Побочные продукты работы операторов и потенциальные экологические ниши
Уже для простейших информационных систем, представляющих собою, как мы предположили, такие полимерные молекулы, гетерокаталитическая активность которых при определенных условиях могла повышать вероятность осуществления их аутокатализа, ярко выраженным должно было быть возникновение и накопление в их окружении побочных продуктов их деятельности. Некоторые из этих побочных продуктов могли оказаться «полезными», и тогда создание их закреплялось в программе и подвергалось дальнейшему совершенствованию – выход w уменьшался, а КПДQ возрастал. Другие побочные продукты могли быть бесполезными и даже вредными, но, в силу своей незапрограммированности, неизбежно накапливались в окружающей среде. В случае живых организмов такими побочными продуктами воспроизведения кодирующей их информации являются – все без исключения! – продукты их жизнедеятельности, включая их собственные тела и разрушающиеся носители их информации.
Изменения, связанные с действием w на среду обитания продуцирующих их организмов, могут вызвать самые различные последствия. Так, накопление w может просто привести к гибели их продуцентов, а также любых других организмов, – типичный пример самоотравления живых систем; w могут действовать как мощные мутагены, заставляя мутировать их продуцентов, что обычно приводит к постепенному вырождению; наконец, w могут быть таковы, что их смогут утилизировать, в качестве нового ресурса, какие-либо другие организмы или мутанты исходных форм, создающих, таким образом, компоненты новых потенциальных экологических ниш. Это означает, что в подобном случае отдельные побочные продукты или их комплексы, в сочетании с теми или иными предшествовавшими уже факторами внешней среды, могли образовывать новые потенциальные экологические ниши все более высоких ярусов жизни.
Если в такие условия обитания попадали комплементарные им эмигранты из зоны комфорта или же в ходе размножения организмов, заселяющих низлежащие ярусы жизни, случайно возникали варианты, способные утилизировать (или как-то иначе использовать) такие новые факторы, они начинали разрабатывать эти экологические ниши, содержащие уже биогенные компоненты. Другими словами, элементарные живые организмы в ходе своей жизнедеятельности сами создавали потенциальные экологические ниши 2-го яруса жизни, а продукты жизнедеятельности заселяющих их организмов, в свою очередь, формировали потенциальные экологические ниши все более высоких ярусов.
Совершенно ясно, что если w будут приводить к гибели продуцирующих их объектов и не смогут быть утилизированы другими объектами, популяция продуцентов данных w отомрет и никаких последствий для живого мира это иметь не будет. Поэтому мы вправе рассматривать только третий случай, когда w, не вызывая быстрого отмирания своих продуцентов, смогут быть использованы другими организмами и будут служить компонентами их экологических ниш.
Изложенный выше принцип формирования многоярусного строения жизни отражает как структуру феномена жизни, так и процесс его построения, согласно которому появлению обитателей какого-либо яруса жизни обязательно должно предшествовать возникновение комплементарной ему потенциальной экологической ниши.
Принцип автогенеза информации. Эволюция семантики информации
Вспомним теперь, что побочные продукты w являются неизбежными спутниками любого целенаправленного действия. Согласно второму закону термодинамики, КПД оператора всегда меньше единицы, и поэтому любая информационная система, функционируя, всегда и неизбежно будет изменять среду своего обитания, создавая компоненты новых потенциальных экологических ниш. Это означает, что многоярусное здание жизни может базироваться даже на одной единственной элементарной экологической нише; для его построения, вообще говоря, совершенно не обязательно исходное экологическое разнообразие.
Тот термодинамический закон, согласно которому КПД никакой машины никогда не достигает единицы, может служить основой для формулирования принципа автогенеза информации: раз возникнув, информация, в ходе деятельности кодируемых ею операторов, неизбежно сама создает условия для своего дальнейшего развития. Эволюция информации, реализующая эту возможность, столь же неизбежно должна иметь ярусный характер. Ярусный характер эволюции касается и семантики информации.
Следует заметить, что принцип автогенеза информации теснейшим образом связан с ее полипотентностью. Действительно, именно полипотентность обусловливает возможность существования в единой среде обитания нескольких различающихся информационных систем или, попросту говоря, организмов разных генотипов. Это обстоятельство должно существенно влиять на скорость протекания автогенеза. Проявляться это может двояко: как в увеличении разнообразия новых потенциальных экологических ниш, так и в увеличении разнообразия организмов, способных – в силу их полипотентности! – эти ниши осваивать.
Здесь, однако, неизбежно возникает вопрос о критерии степени подбора или выбора будущих обитателей новых экологических ниш среди множества претендентов, т.е. о критерии значимости. «Ибо много званных, а мало избранных» (Мат. 22, 14). Вопрос этот выходит далеко за рамки формулирования условий, делающих возможным простое заселение новых экологических ниш, и вплотную подводит нас к лучшему пониманию всех развертывающихся вслед за этим событий.
Критерий значимости. Информационные поля
Очевидно, что заселение новых ниш информационными объектами предполагает как предсуществование таких ниш (безразлично, абиогенного или биогенного происхождения), так и предсуществование способных их заселять живых организмов. Генезис новых ниш обсуждался выше. Заселяются же первоначально эти ниши объектами, ранее существовавшими в других нишах, но способными, в силу полипотентности их информации, осваивать и эти, новые ниши.
Таким образом, в каждую новую экологическую нишу может «вселиться» несколько разных объектов: с течением времени к ним прибавляются те, которые возникают уже в этой нише благодаря изменчивости кодирующей их информации. Между всеми этими обитателями ниши начинается конкуренция за полное овладение ею – процесс, обычно называемый «естественным отбором». При этом все время следует иметь в виду, во-первых, что отбору подвергаются отдельные информационные системы, а во-вторых, что этот процесс автоматический. Его направленность, которую мы постараемся выявить и обосновать, возникает в силу самой природы вещей, носит вероятностный характер и приводит к формированию информации, обеспечивающей через посредство своего оператора – наиболее успешное свое воспроизведение в условиях данной ниши.
Вот здесь и возникает проблема критерия значимости, или критерия отбора, призванного определить, что же такое «наиболее успешное». Вообще говоря, может существовать много таких критериев: скорость размножения, конкуренция за субстрат, «перехват» источников энергии и т.п. [11]. Нас, однако, интересует прежде всего такой критерий, который отражал бы не только особенности операторов (подобные только что упомянутым), но и кардинальные свойства самой информации, эти операторы кодирующей. В качестве такого критерия рассмотрим эффективность информации (см. главу 2), проявляющуюся на уровне оператора как его КПД в данном пространстве режимов (см. главу 3).
Насколько наш критерий значимости соответствует действительности, или, точнее, насколько он универсален, без тщательного конкретного анализа сказать трудно. Можно лишь предположить, что он имеет весьма общий характер. Поэтому здесь мы ограничимся лишь теми последствиями, к которым может приводить реализация его в тех или иных ситуациях.
Одно из таких последствий – введение понятия «информационное поле». В главе 2 мы уже отмечали, что зависимость эффективности информации А от ее количества В должна описываться кривой с максимумом. Очевидно, что такую же форму будет иметь и зависимость КПДQ(В). Графически эта зависимость изображена в координатах А, В (см. рис. 2). Кривая А (В) описывает эту зависимость для тех вариантов информации, у которых в данных условиях (т.е. для данной пары Z и s) наблюдаются максимально возможные, при данных В, значения С. Поэтому площадь, ограниченная сверху кривой А (В), будет «заселена» информациями, имеющими меньшие, нежели максимально-возможные при данных В, значения С. Максимум кривой А (В), как уже отмечалось, соответствует той величине Вmax при которой эффективность информации может иметь максимальное (в данном информационном поле) значение, а оператор, такой информацией кодируемый, имеет наибольший из всех возможных КПДQ.
Площадь, ограниченную кривой А (В) в системе координат А,В, и будем называть «информационным полем» для данной пары Z и s. Независимо от специфики Z и s, кривые А (В) всегда имеют максимум, – т.е. для любого информационного поля всегда может существовать хотя бы одна информация, кодирующая оператор с максимально-возможным для данной пары Z и s значением КПДQ.
Каждой экологической нише соответствует свое информационное поле. Очевидно, что информация, попадая в новое, еще не освоенное информационное поле, может располагаться в самых разных его точках, но не вне его пределов. Очевидно также, что в основе динамики информации должен лежать процесс ее миграции (блуждания) в пределах информационного поля, порождаемый присущей ей изменчивостью и направляемый критерием значимости. Очевидно, наконец, что «движущей силой» этой динамики в любом информационном поле будет служить «стремление» достигнуть точки, соответствующей экстремуму кривой А (В).
Этот процесс можно описать статистической моделью, в которой вероятность удвоения информации (или, точнее, информационной системы) будет пропорциональна степени приближения ее к точке экстремума, даже при постоянстве вероятности ее гибели в разных участках информационного поля. Конкретные механизмы, здесь работающие, могут быть самыми разными.
Иерархия экологических ниш
Элементарные экологические ниши, по определению, состоят только из абиогенных компонентов и обладают минимальными из возможных размерностями. Их обитатели – элементарные организмы – занимают 1-й ярус жизни. Количество кодирующей их генетической информации не может быть ниже некоторого минимального значения, определяемого размерностью их экологических ниш, которая может варьировать, по-видимому, в ограниченных пределах. Возможна, конечно, ситуация, когда какой-либо организм может обитать в нескольких разных экологических нишах, – но он все равно остается на 1-м ярусе жизни, просто его экологическая ниша имеет мозаичное строение, а количество генетической информации будет превышать то, которое достаточно для освоения отдельных экологических ниш.
Дело, однако, изменяется, когда мы переходим ко 2-му ярусу жизни. Экологические ниши 2-го яруса, как мы помним, включают биогенные компоненты, продуцируемые обитателями одной или нескольких элементарных экологических ниш. Следовательно, экологические ниши 2-го яруса как бы включают в себя одну или несколько экологических ниш 1-го яруса, возвышаясь над ними. Размерность таких ниш возрастает по сравнению с размерностью ниш 1-го яруса. Это предъявляет новые требования к количеству генетической информации у тех объектов, которые могут оказаться способными эти ниши осваивать.
Это же относится и к экологическим нишам всех последующих ярусов жизни. Чем выше иерархическое положение этих ниш, чем большее число ниш низлежащих ярусов они в себя включают, тем большей будет их размерность, и, следовательно, тем больше информации требуется для кодирования информационных систем, способных такие ниши разрабатывать. Иерархическое строение экологических ниш, таким образом, – лишь предпосылка к многоярусности древа жизни. Но такое строение экологических ниш предъявляют к их обитателям одно строгое требование: переход с более низких ярусов на более высокие должен сопровождаться возрастанием количества информации, кодирующей эти организмы.
В терминах информационных полей сказанное выше будет выражаться в том, что с увеличением размерности экологических ниш должно возрастать количество информации, способной обладать максимальной эффективностью в том или ином информационном поле, этим нишам соответствующем. Количество такой оптимальной информации для обитателей все более высоких ярусов жизни может только возрастать.
Последнее высказывание можно сформулировать и по-другому. Действительно, можно утверждать, что с увеличением количества информации размерность пространства режимов, обеспечивающего ее успешную редупликацию, должна возрастать. Попробуем обосновать это утверждение на мысленном примере динамики информации, попадающей в разные информационные поля.
Динамика информации в разных информационных полях: конвергенция и дивергенция, деградация, идиоадаптация и араморфозы
Пусть дано некоторое информационное поле 1 с оптимальным количеством информации В10. Пусть разные точки этого информационного поля заняты информационными системами, кодируемыми информацией с разными значениями В. Пусть эти информационные системы могут размножаться в данном информационном поле со скоростями, пропорциональными А, и в ходе размножения изменяться благодаря изменчивости кодирующей их информации. Такая изменчивость может затрагивать как количество информации В, так и ее семантику, сказываясь во втором случае на ценности С этой информации в данном информационном поле. Введем еще две характеристики информационных систем – скорость их размножения VP, которая может быть выше, а может быть и ниже скорости их гибели Vr.
Нетрудно показать, что с течением времени, при прочих равных условиях, характер заселенности разных участков информационного поля будет изменяться (рис. 4). Хотя изменчивость информационных систем не направлена и, в силу своей случайности, может приводить к их попаданию в любую точку информационного поля, те из них, у которых величина В больше или меньше, чем Вopt, согласно соотношению VP/Vr – окажутся обреченными на прозябание или гибель, а основная масса обитателей информационного поля будет все более с течением времени, сосредоточиваться в зоне его экстремума (где В ≈Ворt), приближаясь к максимальному значению величины А1=А1max. Налицо конвергентная эволюция информационных систем – их эволюция в направлении оптимального количества информации Bopt и единой семантики, обеспечивающей приближение значений С к величине С10=А10В10.