Библиотека svitk.ru - саморазвитие, эзотерика, оккультизм, магия, мистика, религия, философия, экзотерика, непознанное – Всё эти книги можно читать, скачать бесплатно
Главная Книги список категорий
Ссылки Обмен ссылками Новости сайта Поиск

|| Объединенный список (А-Я) || А || Б || В || Г || Д || Е || Ж || З || И || Й || К || Л || М || Н || О || П || Р || С || Т || У || Ф || Х || Ц || Ч || Ш || Щ || Ы || Э || Ю || Я ||

 

Корогодин В.И., Корогодина В. Л.

Информация как основа жизни

Дубна, 2000

КОРОГОДИН В. И., КОРОГОДИНА В. Л.

Информация как основа жизни. Дубна: Издательский центр «Феникс», 2000. 208 с.

Книга посвящена феномену жизни и информации как внутренне присущему свойству информационных систем.

Рассматриваются свойства информации и информационных систем. Выделяются главные свойства информационных систем – способ­ность к «целенаправленным» действиям и расслоение на информационную» и «динамическую» подсистемы.

Рассматривается динамика информации от ранних этапов эволю­ции физических информационных систем до систем с биологической информацией генетической, поведенческой и логической. Особое внимание уделяется динамике биологической информации в биосфере. Одной из проблем, затрагиваемой авторами, является взаимодействие ноосферы и техносферы, связанной с автогенезом информации.

Книга рассчитана на специалистов, а также на круг читателей, ин­тересующихся теорией информации, эволюцией, биологией и взаимо­отношениями биосферы и техносферы.

KOROGODIN V.I. & KOROGODINA V.L. Information as the Foundation of Life. Dubna: "Phoenix" Pub­lishing  Center, 2000. 208 p.

The book analyzes the phenomenon of life and information as an inher­ent quality of information systems.

Properties of information and information systems are discussed. The main properties of information systems are pointed out: the ability to act "purposefully" and the division into an "informative" and "dynamic" subsys­tems.

The dynamics of information is analyzed, from the early stages of physi­cal information system evolution to the systems with biological genetic, be-haviouristic and logical information. Special attention is attached to the dy­namics of biological information in biosphere. One of the problems, con­nected with information autogenesis and discussed by the authors, is the in­teraction of noosphere and technosphere with biosphere.

The book is recommended to specialists and readers who are interested in the theory of information, evolution, biology and interaction of biosphere and technosphere.

© Авторы. В. И. Корогодин и В. Л. Корогодина, 2000 г. © Оформление. ИЦ «Феникс», 2000 г.

Оглавление

Пролегомены    

Глава первая. Историческая справка

Глава вторая. Информация и ее свойства   

Глава третья. Информационные системы   

Глава четвертая. Принцип поризма    

Глава пятая. Динамика информации

Глава шестая. Биосфера и техногенез   

Глава седьмая. Предвидимо ли будущее?   

Обозначение используемых понятий  

Contents

Prolegomenon   

Chapter 1. History  

Chapter 2. Information and Its Properties 

Chapter 3. Information Systems  

Chapter 4. Porism Principle  

Chapter 5. Dynamics of Information 

Chapter 6. Biosphere and Technogenes

Chapter 7. Can One Predict the Future  

Designation of the Notions Used

ПРОЛЕГОМЕНЫ

Термин «информация»

Термин «информация» широко используется в научной литературе. Трудно найти область знаний, избежавшую соблазна его применять. Это – следствие все продолжающегося расширения смыслового поля этого термина.      

В тридцатые годы и ранее слово «информация» использовали, в основном, как «сведения» или «осведомление», т.е. как прямой перевод латинского informatio. К концу сороковых годов под «информацией» начали понимать функцию статистических характеристик букв какого-либо языка. Так, согласно К. Шеннону [1], количество информации, содержащейся в каком-либо сооб­щении, состоящем из М букв, равно

               (1)

где п число букв в данном языке, ар частота встречаемо­сти iтой буквы (i=1,2...n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество ин­формации Н всегда было положительным.

Под влиянием работ Л. Бриллюэна [2], начиная с шестидеся­тых годов, возник и приобрел широкую известность «негэнтропийный принцип информации». В отличие от энтропии, рас­сматриваемой в качестве меры неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода анти­энтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит формальное сходство обобщенной формулы К. Шеннона

             (2)

и знаменитой формулы Больцмана для физической энтропии S = lnW, где W - число состояний, которые может принимать система. Если микросостояния системы различны, то формула будет выглядеть так

                 (3)

Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или эн­тропийных (эрг/град).

Б. Б. Кадомцев указывает [3], что величины I и S формально равны потому, что I соответствует информации одного единст­венного состояния из множества возможных, a S определена по множеству всех состояний. Здесь понятие информации дается в терминах физической статистики. Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности [4]. Эти два определения практически совпадают [5].

Однако существуют области феноменов, для обозначения ко­торых этот термин также хорошо подходит, и использование его существенно упрощает задачи их изучения.

Жизнь вокруг нас

Замечали ли вы когда-нибудь, что в русском языке нет сло­ва, противоположного словам «живое», «жизнь»? Вернее, есть слова «мертвое», «смерть», но они означают лишь то, что ко­гда-то было живым, а затем погибло. «Неживое» также проис­ходит от слова «живое». И этот характерный для многих язы­ков феномен связан, видимо, с тем, что, склонный судить о других по себе, первобытный человек одушевлял, по аналогии с собой, весь окружающий мир [6].

Со временем представления о всеобщей одушевленности сме­нились представлениями о постепенности переходов неживого к живому. Так, Г. Лейбниц считал, что не существует неорганиче­ского царства, а есть только одно громадное органическое, раз­личные ступени которого представлены в минералах, растительных и животных формах. Всюду в мире наблюдается непрерыв­ность, и всюду, где мы встречаемся с какой-нибудь организаци­ей, существует и жизнь. Мертвая и живая материи не суть ка­кие-нибудь противоположности, но представляют собой две формы той же материи, отличающиеся друг от друга только оттенками.

Но философы пошли еще дальше по пути аналогий. В игре сил мертвой материи, и главным образом в игре химических сил, они увидели чуть заметный зародыш тех склонностей и стремлений, которые управляют деятельностью живых существ. По их мнению, все реакции материи указывают на существова­ние в ней какого-то сознания, способности отличать дурное от хорошего, стремиться к приятному, избегать неприятного. Тако­во было мнение Эмпедокла еще в древности; так же считали Д. Дидро и Ц. Кабанис. Еще на заре химии Л. Бергав, напри­мер, сравнивал реакции соединения с сознательными союзами, причем соединявшиеся «по симпатии» химические элементы чуть ли не справляли свадьбу.

Живое и неживое

Одна из особенностей живых тел их изменяемость во времени: рождение, рост, старение, умирание и распад. Но ведь рождение и гибель касаются всех тел Вселенной – от атомов до галактик. Любой материальный объект «живет и умирает» в том смысле, что он непрерывно изменяется в одном и том же направлении, пока не достигнет состояния «вечного покоя».

Постоянство формы, рост, питание и размножение таковы обязательные признаки жизни. Может быть, они обусловлены осо­бым химическим строением? Но еще в середине прошлого века ученые выяснили, что протоплазма живой клетки, состоящая из углерода, водорода, азота, кислорода, фосфора и серы, в хими­ческом отношении близка к ароматическим соединениям. Сейчас досконально изученное в организме строение белков, жиров, уг­леводов и нуклеиновых кислот показывает, что они не отлича­ются от своих неживых аналогов, образующихся под влиянием высоких температур или электрических разрядов. Их можно по­лучать даже «в пробирках», по заранее составленному плану.

Специфичны ли для живых тел эти основные признаки? Вспомним о кристаллах. Давно известно, что каждый кристалл имеет строго определенную форму. Мало того. Если форма кристалла нарушена, например, отбит кусочек, достаточно поместить его в раствор того же вещества, и он, подобно яще­рице с оторванным хвостом, будет восстанавливать поврежде­ние. Уже это говорит о его способности к своего рода питанию поглощению из окружающей среды нужных ему компонентов. И только после того, как ущерб ликвидирован, кристалл будет расти, пока не исчерпает «питательность» содержащего его рас­твора. Так же обстоит дело и с размножением: кто не видел друзы кристаллов, образующихся из пересыщенного раствора поваренной соли или сахара?

Все это означает, что такие специфичные признаки живого (по­стоянство формы, рост, регенерация, питание, размножение, ста­рение, гибель и др.) характерны не только для живых организ­мов, но и для ряда заведомо неживых кристаллов. Но кристаллы, скажут нам, могут сохраняться в неизменном виде неограничен­но долгое время, в отличие от живых существ. А сохранность сухих зерен в египетских пирамидах или хорошо высушенных коловраток, особенно при низких температурах? Когда организ­мы находятся в анабиозе, в состоянии «скрытой жизни», они могут оставаться без изменения годы и годы и вновь начинают «жить» только при подходящей температуре, влажности и нали­чии питания. Но так же ведут себя и кристаллы! Значит, очень многие свойства живого присущи и неживым телам.

Чем же тогда, действительно, отличаются живые организмы от неживых тел? Может быть, какими-либо особенностями тех же функций, которые свойственны и неживым кристаллам, на­пример определенными требованиями к внешней среде, темпера­туре, концентрации каких-либо веществ? Но как эксперимен­тально показали такие крупные химики, как Ж. Жерне, К. Дюфур, В. Освальд и другие, и в этом отношении принципиальных различий нет. Так, процессы кристаллизации или размножения кристаллов очень чувствительны к температуре, концентрации раствора и наличию примесей, подобно тому, как эти же фак­торы влияют на скорость размножения микроорганизмов, по­мещенных в питательный бульон. Более того, подбирая специ­альные условия среды, можно получить химические образова­ния, ведущие себя внешне неотличимо от живых организмов.

Что же такое живое?

И все же эти размышления о свойствах живого ни на шаг не приближают нас к ответу на вопрос: что такое живое? Ко­нечно, отдельные признаки живых организмов можно найти и у неживых объектов, но то, что разделяет их, остается непонят­ным. По такому пути традиционное мышление шло до самого последнего времени. И хотя сегодня мы знаем, из каких хими­ческих соединений построено живое, что представляет собой дыхание, питание, выделение «отработанных шлаков», как про­исходит деление клетки, размножение одноклеточных и высших организмов, какие при этом идут молекулярные процессы, точного определения живого еще нет.

«Жить – значит обладать способностью откликаться более или менее целесообразно на воздействия окружающей обстановки», – писал К. Платэ, несколько видоизменив определение живого, пред­ложенное английским философом Г. Спенсером, который пола­гал, что «жизнь есть определенное сочетание разнородных изме­нений, одновременных и последовательных, в соответствии с внешними сосуществованиями и последовательностями». По по­воду этого определения жизни наш замечательный натуралист В. В. Лункевич [7] остроумно заметил, что оно дает нам «и очень много, и ничего». Очень много, потому что объединяет в еди­ное целое все возможные проявления жизни, и ничего, потому что оставляет в стороне вопрос о причинах, их вызывающих.

По-видимому, нужно идти другим путем. Попробуем найти такое специфическое свойство, отличающее живое от неживого, обладание которым делает объект живым. Эта искомая сущ­ность   должна   объяснить все проявления   жизни,   включая   способность к прогрессивной эволюции. Среди самых разных свойств живого должно быть одно, объединяющее все многооб­разие живых существ. Свойство это давно известно, но почему-то до сих пор приписывалось только человеку. Это способ­ность совершать целенаправленные действия.

«Учение о цели» (телеология) восходит к доаристотелевским временам, когда движение небесных светил и невидимых атомов объясняли существованием единой «движущей силы», находящей­ся вне «материальных оболочек» привычных и знакомых всем ве­щей. Лишь с течением времени физики избавили неживой мир от влияния «единого движителя», и в его ведении осталась лишь живая природа. Эта одухотворяющая сила во времена Аристотеля, т.е. более 2000 лет назад, получила наименование «энтелехия». Та­кие представления под другими названиями просуществовали до начала нашего века [8], но в дальнейшем энтелехия сошла со сцены. На виду осталось очевидное способность совершать целенаправленные действия. Если не связывать эту способность с сознательным стремлением к цели, то почти не нужно доказывать, что она присуща всем без исключения живым организмам.

Целенаправленное действие и его компоненты

Чем же «целенаправленное действие» отличается от других событий, происходящих вокруг нас?

Идет гроза, ветер гнет деревья, раздается грохот грома, мол­ния ударяет в деревянный сарай, и начинается пожар. Можем ли мы по отношению к таким событиям сказать для чего они происходят? Нет, конечно. Мы полностью объясним эти собы­тия, если ответим на вопрос: почему'?

Но таким событиям противостоят другие, которые нельзя объяснить, ответив только на вопрос «почему?» и умолчав «для чего?» Это события, идущие с участием живых организмов: ко­гда вирусная частица, прикрепившись к поверхности бактерии, впрыскивает в нее свою ДНК; когда муравьи роют вход в под­земный муравейник; когда птица строит гнездо, зверь нору или человек засевает зерном взрыхленное поле. Во всех подоб­ных случаях, чтобы понять действия живых существ, следует знать, для чего они это делают. Подчас этого ответа достаточ­но, чтобы понять природу наблюдаемого явления.

Здесь напрашивается аналогия с машинами, изготовляемыми человеком, да и другими изделиями, которые производят разные живые существа от насекомых до высших млекопитающих: термитниками и муравейниками, гнездами и норами, различны­ми  постройками и т.п. В таких случаях прежде всего решают вопрос, для чего они предназначены, а уже затем почему и как. Цель стоит впереди, а уж насколько то или иное изделие будет ей соответствовать, зависит от искусства его творца. По­этому-то такие изделия и называют искусственными.

Итак, «искусственный» термин, применяемый к объекту, из­готовленному каким-либо живым организмом согласно «своему желанию», для достижения своей цели удовлетворить потреб­ность живого. Но таким целям служат, по существу, любые дей­ствия, совершаемые живыми организмами, как бы ни был ши­рок их диапазон. Эти целенаправленные действия далеко не всег­да однозначно связаны с «конечной целью» той именно потреб­ностью, которую организм стремится удовлетворить, даже не осознавая этого. Но стоит внимательно понаблюдать за любым живым существом, и станет ясно, что все «конечные цели» сво­дятся к одной оставить потомство. Поэтому можно сказать, что живое это совокупность объектов, способных совершать целе­направленные действия, конечная цель которых – самовоспроиз­ведение.

Целенаправленное действие отличается от спонтанного тече­ния событий прежде всего тем, что оно повышает вероятность осуществления «события цели». Насколько повысится эта ве­роятность зависит от искусства исполнителя, от степени его осведомленности о путях достижения цели и о наличии в его распоряжении необходимых ресурсов. Но, независимо от этого, любое целенаправленное действие характеризуется именно по­вышением вероятности достижения цели, и величина эта позво­ляет судить об его эффективности [9].

Вторая характеристика целенаправленного действия те до­полнительные изменения в окружающей среде, которые его со­провождают. При любом целенаправленном действии всегда (в соответствии со вторым законом термодинамики) появляются «побочные продукты» от едва заметного повышения темпера­туры окружающей среды до накопления в этой среде веществ, от­равляющих все живое. Чем совершеннее методы достижения це­ли, тем меньше образуется побочных продуктов.

И, наконец, самое главное в целенаправленном действии это механизм, который его осуществляет. Такой механизм можно назвать «оператором» [10]. В искусственных устройствах это машина, изготовленная человеком, или какое-либо иное соору­жение, сделанное живыми существами, а в живых организмах это сам организм, его тело, его строение, его навыки и умение пользоваться имеющимися ресурсами для достижения своей це­ли. Все мы прекрасно знаем, сколь различны организмы по раз­меру, форме и образу действий и как превосходно они пригна­ны к среде своего обитания, своей «экологической нише». И чем больше такое соответствие, тем успешнее они достигают цели и тем менее пагубны побочные продукты, это сопровождающие.

Информационные системы

Остановимся подробнее на появлении информационных сис­тем процессе самоорганизации. Как показал И. Пригожий [11], это должны быть открытые системы, далекие от термодинамического равновесия. В такой системе должны иметь место ката­литические и кросс-каталитические процессы. Такие процессы хорошо описываются нелинейными дифференциальными уравне­ниями. Когда система становится неустойчивой, любые малые возмущения во внешней среде приведут к переходу в новое ста­ционарное состояние. Под влиянием возникающих в это время флуктуации элементы ансамбля могут «кооперироваться», что будет проявляться в новых системных свойствах. В этом про­цессе необходимо подчеркнуть следующее.

Критерием эволюции является принцип о минимальном про­изводстве энтропии. Он указывает на то, что направленное раз­витие термодинамической системы происходит вне равновесного состояния и поддерживается слабыми, но постоянными силами. Когда система встречает препятствия к достижению идеального состояния минимального рассеяния, она начинает выбирать сле­дующий наилучший путь и остается в состоянии минимального рассеяния и минимального производства энтропии. Т.е. самоор­ганизующаяся система появляется всегда, когда возможно «вы­жить» за счет своих кооперативных свойств при различных воз­действиях или для того, чтобы лучше использовать окружаю­щую среду [11-13]. Это можно считать обоснованием «целена­правленного» действия для любых самоорганизующихся систем.

Любое целенаправленное действие можно описать преобразо­ванием

                                          (4)

где R - ресурсы, расходуемые на его осуществление; s - усло­вия среды, в которой это действие происходит; Q - объект, или оператор, это действие осуществляющий и построенный соглас­но некоторому определенному плану, или информации, I - со­бытие цели; w - «побочный продукт», сопровождающий осуще­ствление Z; р и Р - вероятность осуществления Z спонтанно и/или при участии оператора Q. Мы видим, что единственное отличие целенаправленного действия от естественного течения событий состоит в том, что оператор Q, его совершающий, построен на основании данной информации. Только это приво­дит к тому, что в некоторой ситуации s вероятность осуществ­ления Z при участии Q выше, чем в его отсутствие (Р>р). Яр­кий пример этому размножение живых организмов. В отсут­ствие в данной среде s живых организмов они не способны возникать спонтанно, «самозарождаться», т.е. р=0 даже при са­мых подходящих внешних условиях. Размножение же живых су­ществ в подходящих условиях среды происходит с вероятностью Р, близкой к единице.

Роль информации в явлении размножения первым отметил, пожалуй, Дж. фон Нейман [14]. Выступая в Калифорнийском технологическом институте на симпозиуме «Механизмы мозга в поведении» с лекцией «Общая и логическая теория автоматов» (1948 г.), он впервые предложил описание универсального само­воспроизводящего автомата. Дж. фон Нейман отметил, что такой воспроизводящийся автомат, по существу, имеет структуру, по­добную структуре живых организмов. Мы можем добавить, что этот автомат можно рассматривать как устройство, призванное обеспечить размножение, или аутокатализ, кодирующей его ин­формации. Автомат имеет блок, отвечающий за создание опера­тора Q и автомата следующего поколения на основе ресурсов R. В живой клетке этот блок организует «метаболизм», и через него осуществляется отбор наилучших образцов. Если посмот­реть на автомат фон Неймана с этой точки зрения, то очевид­но, что он схематическое отображение любых информацион­ных систем, устроенных так, чтобы они могли обеспечивать воспроизведение кодирующей их информации. Вирусы и одноклеточные живые существа, многоклеточные растения и грибы, многоклеточные животные, наконец, человек и человеческие со­общества все это информационные системы, структура которых задается относящейся к ним информацией, а функция обес­печивает воспроизведение этой информации.

В процессе дублирования исходной информации или при пе­редаче ее из одного автомата в другой она может претерпеть изменения, и возможны три последствия: 1) либо новый авто­мат не сможет воспроизвести самого себя, и вся система погиб­нет; 2) либо автомат начнет «неправильно работать» и будет производить обреченных на гибель уродцев; 3) либо эти изменения окажутся жизнеспособными, и возникнет новый автомат, воспроизводящий новую, измененную информацию.

Как мы видели, самовоспроизведение автомата Q и коди­рующей его информации I всегда и неизбежно сопровождается появлением «побочных продуктов» w. Это результат того факта, что КПД любого материального процесса не может пре­высить  1, а точнее всегда остается меньше  1. Любое действие всегда сопровождается появлением «побочных продуктов», от диссипации энергии до накопления в окружающей среде различ­ных «отходов производства», возникающих в ходе построения Q. Любая информационная система, таким образом, в ходе сво­его функционирования, направленного на ее самовоспроизведение, неизбежно изменяет окружающую среду 5 путем истощения ее ресурсов R и накопления в ней «побочных продуктов» w.

Здесь мы можем вспомнить Н.Винера [15]: «Информация это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему». Но чтобы не прида­вать информации антропоморфный оттенок, что проступает у Н. Винера, можно предложить несколько иное определение. А именно: информацией можно назвать алгоритм построения сис­темы, обеспечивающей воспроизведение этой информации, функ­ционально связанной со средой своего местоположения. При этом следует подчеркнуть, что обеспечение воспроизведения информа­ции обязательный и необходимый атрибут любой информаци­онной системы. Ведь система, не отвечающая этому требованию, неизбежно «выбывает из игры», а кодирующая ее информация разрушается и бесследно исчезает. Именно исчезает, а не пере­ходит во что-то другое, ведь «информация есть информация, а не материя и не энергия» [15], и законы сохранения на нее не распространяются [16].

Информация и ее носители

Остановимся коротко на структуре информационных систем и носителях информации.

После публикации работы К. Шеннона [1] понятие «информа­ция» было очень быстро вытеснено понятием «количество ин­формации». За «количество информации», согласно формуле (1), принимали логарифм величины, обратной вероятности осущест­вления какого-либо события. Такую подмену понятий стали ис­пользовать очень широко. Такой подход привел к отрыву поня­тия «информация» от семантики, или содержания сообщений, искони ему присущего. Подчеркнем, что в данном примере мы не можем выделить смысл (семантику) сообщения, не взяв для этого всех букв текста, являющихся носителями информации.

Рассмотрим пример информационных процессов из газодина­мики (подробно см. [3]). В общем случае поведение разреженно­го газа описывается кинетическим уравнением Больцмана

                                            (5)


где f локальная функция распределения частиц по скоростям, a St(f) член столкновения между атомами. Если столкновения часты, то функция распределения становится максвелловской и зависит от п, Т, и локальных значений плотности, температу­ры и средней скорости. Если эти переменные являются функ­циями координат и времени, то уравнение Больцмана превра­щается в систему

  где

 где p = nT

Увеличение члена столкновений St(f) выделило набор вели­чин п, Т, и, которые стали динамическими переменными. Их можно назвать параметрами порядка.

Мы дали описание открытой системы, далекой от равнове­сия. Если мы пойдем по пути усложнения системы, то заметим, что можно выделить часть, более тонко реагирующую на воз­мущения. Ее можно назвать управляющей, информационной ча­стью, передающей сигналы в динамическую часть.

Теперь перейдем к генетической информации, носителями ко­торой являются молекулы ДНК. Слова «ДНК», «гены», «наслед­ственная информация» стали настолько привычными, что неред­ко воспринимаются как синонимы. В действительности это да­леко не так. Гигантская по длине молекула ДНК состоит из че­тырех типов «кирпичиков», или нуклеотидов, которые могут быть соединены в любой последовательности. Эти молекулы обладают свойством, которое Г.Меллер назвал аутокатализом. Если в раствор, содержащий такие молекулы, внести в должном количестве все четыре нуклеотида (основания), то при соблюде­нии некоторых дополнительных условий эти молекулы начнут пристраивать основания вдоль своей цепи точно в той же по­следовательности, как и в них самих, а затем отделять от себя готовые копии. Процесс этот не зависит от того, какова последовательность оснований, составляющих исходные молекулы ДНК. Это может быть случайная последовательность, или стро­го чередующаяся, или любая иная копии будут всегда похожи на оригинал, если не произойдет мутации, т.е. случайной заме­ны, вставки или выпадения одного или нескольких оснований.

Если ДНК состоит из случайной последовательности оснований, это далеко не ген, поскольку никакой наследственной информа­ции она не содержит, хотя и может самовоспроизводиться.  Информация возникает на отрезках молекулы ДНК лишь тогда, когда благодаря мутированию (или по иным причинам) там сложится такая последовательность оснований, которая сможет повлиять на химические процессы, протекающие в ее окружении. Только тогда, выступая в роли «катализатора», ген сможет ус­корить одни или притормозить другие процессы, изменяя тем самым свое химическое окружение. Постепенно все большие преимущества будут получать такие структуры ДНК, которые в непосредственном своем окружении могут увеличивать концен­трацию нуклеотидов и других веществ, необходимых для их раз­множения. Лишь когда этот процесс завершится и в «первичной» молекуле ДНК возникнут отрезки, каждый из которых стимули­рует образование необходимых для удвоения ДНК соединений или угнетает синтез соединений, препятствующих их удвоению, можно считать, что в молекуле ДНК возникли гены и что сама эта молекула стала носителем генетической информации.

Генетическая информация, следовательно, содержится в набо­ре генов, контролирующих синтез соединений, которые обеспе­чивают удвоение молекул ДНК в некоторых данных условиях. Появление генов тесно связано с возникновением аппарата трансляции, а также с формированием оболочек или мембран, отделяющих от внешней среды участок, где находятся молекулы ДНК [17]. Это уже возникновение живых объектов, которые мо­гут расти, размножаться и приспосабливаться к новым условиям благодаря генам, возникающим и изменяющимся в результате мутаций; они умирают, когда разрушаются содержащиеся в них гены или когда они не в состоянии приспособиться к внешним условиям. Изменяясь, гены влияют и на другие структуры орга­низма, обеспечивая тем самым «заселение» все новых мест оби­тания, появление многоклеточных растений, грибов и животных, т.е. эволюцию жизни на Земле. Как писал Г. Меллер, в основе жизни лежит ген.

Таким образом, совокупность генов, или генетическая ин­формация, регулирующая целенаправленную деятельность любой живой клетки, определяется не самими основаниями ДНК, а по­следовательностью их расположения.

Различие между генетической информацией и молекулой ДНК позволяет также ввести понятие генетической информации и выяснить отличие таких ее носителей от информации как та­ковой. Поэтому-то мы и говорим, что генетическая информация записана в ДНК определенной последовательностью оснований. Именно эта информация, т.е. запись последовательности тех со­бытий, которые должны произойти, чтобы вновь возникающие клетки могли вырасти, а затем вновь поделиться и т.д., са­мый важный компонент живой клетки. То, о чем писал Меллер около 70 лет назад, можно сформулировать следующим обра­зом: живое - это совокупность объектов, содержащих информа­ционные структуры, обладающие свойствами аутокатализа и гетерокатализа, обеспечивающие размножение этих объектов в разнообразных условиях внешней среды. Жизнь это возникнове­ние все новых содержащих информацию объектов, материальные компоненты которых обеспечивают ее воспроизведение во все более разнообразных и сложных ситуациях. Очевидно, что чем сложнее эти ситуации, тем больше нужно информации, чтобы в соответствии с ней построить живой объект, способный в этих ситуациях существовать.

Как нам кажется, в мире неживой Природы нет примеров информационных систем, в которых носители информации от­личались бы качественно от остальных элементов системы.

Основа жизни

Мы привыкли к словосочетанию «генетическая информация», забыли даже, что ввел его в научный обиход Э. Шредингер в середине 40-х годов [18]. В своей книге «Что такое жизнь с точки зрения физика?» он опирался на работу Н. В. Тимофеева-Ресовского, К. Г. Циммера и М. Дельбрюка «О природе генных мутаций и структуре гена», увидевшую свет в Германии в 1935 г. [19]. Это произошло вскоре после того, как Г. Меллер, ученик Т. Моргана, впервые показал, что гены не только воспроизводят себя и изменяются (мутируют), но что можно повлиять на час­тоту их мутирования, например, повышением температуры или действием ионизирующих излучений [20].

В 1928 г. Меллер [21] в статье «Ген как основа жизни» по­казал, что именно гены (образования неизвестной тогда приро­ды), способные к ауто- и гетерокатализу, положили начало фе­номену жизни на нашей планете. «Ясно, что, став на эту точку зрения, мы избегаем логических трудностей, связанных с проис­хождением современной протоплазмы, с ее взаимодействием час­тей, действующих совместно в направлении продолжения роста и точного воспроизведения целого. Система эта образовалась, так же как и сложная макроскопическая форма высших расте­ний и животных, ... постепенно, шаг за шагом, каждый из ко­торых проверялся по мере того, как в первичных аутокаталитических генах мутация следовала за мутацией. В этом процессе преимущественно выживали, размножались и вновь мутировали лишь те гены, побочные продукты которых оказывались наибо­лее полезными для дальнейшего воспроизведения... Согласно этому взгляду, который,  по-видимому,  наилучшим образом  выдерживает проверку исчерпывающим анализом, по крайней мере значительная часть протоплазмы явилась вначале лишь побоч­ным продуктом активности генного вещества; ее функция... за­ключается лишь в питании генов; первичные же, свойственные всякой жизни, тайны скрыты глубже, в самом генном вещест­ве... Мутабильного типа структуры в генном веществе несо­мненно претерпели в процессе эволюции глубокие изменения и подверглись усложнениям, а под их влиянием, конечно, эволю­ционировала и протоплазма, но другие структуры те черты строения гена, которые ответственны за его первичное свойство аутокатализа – должны быть еще и сейчас такими же, какими они были в незапамятные времена, когда зеленая тина еще не окаймляла берегов морей».

Всего через 20 с небольшим лет после этой публикации было установлено, что гены представляют собой отдельные участки молекулы ДНК, размножающиеся путем комплементарного при­страивания друг к другу четырех видов нуклеотидов; гены му­тируют, когда происходят ошибки в этом процессе; они управ­ляют синтезом разного рода белков, составляющих протоплазму, переключаясь время от времени с аутокатализа (построения соб­ственных копий) на гетерокатализ (построение инородных моле­кул) путем синтеза РНК и, с ее помощью, молекул белка.

Сейчас все это хорошо известные процессы. Можно ли про­водить аналогии между свойствами живых клеток и, например, кристаллов? Рост и размножение кристаллов основаны на при­соединении к исходной «затравке» все новых, точно таких же молекул из раствора. Вероятность этого равновесного процесса зависит от температуры и концентрации раствора. Размножение вирусной частицы также зависит от условий окружающей сре­ды. Но вирусы, как и все живые организмы, открытые систе­мы и с большей эффективностью используют окружающую сре­ду для выживания и размножения. Это касается, например, по­иска клетки-хозяина и размножения в ней. Прикрепившись к поверхности живой клетки, вирус с помощью специального бел­кового устройства впрыскивает в нее свою молекулу ДНК или РНК, содержащую его гены. Гены вируса не только воспроиз­водят себя, используя синтезируемые зараженной клеткой «кир­пичики», но также заставляют эту клетку создавать новые, не свойственные ей белковые молекулы, которые, окружая готовые генетические структуры новых вирусных частиц, создают белко­вую оболочку вируса, приспособленную для осуществления сле­дующего цикла заражения других клеток и размножения в них.

Все теории происхождения жизни вращаются вокруг попыток ответить на вопрос: как возникла ДНК и та информация, кото­рая записана в ней [17]?

Поведенческая информация

Генетическая информация и ее изменчивость полностью опреде­лила эволюцию всех организмов, ведущих преимущественно при­крепленный образ жизни, т.е. растений и грибов. Однако, с разви­тием подвижности животных, активации поисков пищевых ресурсов и половых партнеров, все большую роль в их жизнедеятельности начинают играть новые, случайно возникающие ситуации, которые невозможно заранее предвидеть и «запастись» генетически детерми­нированными ответами на них. Это, видимо, и послужило основой для возникновения поведенческой информации. Поведенческой бу­дем называть информацию, лежащую в основе поступков, контро­лируемых особенностями нервной системы, которые формируются временно, под влиянием жизненного опыта или процессов научения, например путем подражания родителям или другим сородичам.

С возникновением поведенческой информации роль генетиче­ской информации в жизни высших животных начинает изменяться. Теперь все большая роль в их выживании принадлежит не только генетически детерминированным ответным реакциям на те или иные ситуации, но и таким особенностям нервной системы, которые обес­печивают эффективное использование обучения и научения, в том числе решение без предварительного опыта внезапно возникающих задач [22]. Поведенческая информация постепенно играет все боль­шую роль в выживании высших животных, примеры чему можно найти как у классиков [22, 23], так и у наших современников [24-27]. Максимальное развитие поведенческая информация получила у млекопитающих. Мы еще не знаем материальной (точнее, молеку­лярной) природы носителей этого вида информации и не умеем определять ее количество. Но нет поведения, которое не обеспечивало бы целесообразность поступков высших животных в разных ситуа­циях. Здесь тоже «работает» дарвиновский отбор: неадаптивные реакции приводят, как правило, к гибели животных, а вместе с ними погибает и «неправильная» информация.

Мы убеждены в том, что именно те генетически детермини­рованные структуры клеток и особенности организации нервной системы, которые делают ее способной накапливать и использовать поведенческую информацию, являются основой для форми­рования третьего вида информации логической, с которой связаны возникновение и эволюция человека.

Логическая информация

Вряд ли   можно  сомневаться,   что   человек  стал  тем,   что   он есть, только обретя дар речи. «В начале было Слово...» (Иоанн, 1, 1). Первоначально логическая информация, носителем кото­рой является речь, играла роль, скорее всего, лишь для ускоре­ния и упрощения обмена между людьми поведенческой инфор­мацией. Но затем эта ее функция отошла на второй план. Ос­новная роль и главная функция логической информации связа­ны, видимо, с особенностями ее носителя человеческой речью. Речь, язык присущи только человеку. У других живых организ­мов (в том числе у обезьян и дельфинов) языка нет есть лишь сигнальное общение, ничего общего, кроме внешнего сходства, с человеческой речью не имеющее [26]. Уникальная особенность языка, как носителя информации, состоит в том, что он позволяет информации существовать вне зависимости от индивидуумов, ее создающих или использующих. Именно язык создал единый информационный пул планеты, открытый для всех населяющих Землю людей.

Логическая информация не имеет четких границ с другими, неинформационными, языковыми феноменами, относящимися, например, к областям искусства, религии и т.п. Но все эти фе­номены, при тщательном рассмотрении, выполняют общую функцию содействия распространению и сохранению разных ви­дов логической информации. Такую же роль играют и этика, и мораль, и другие стороны социальной жизни людей [28]. Все это, вместе взятое, оказывает на человека давление, направлен­ное на все большее сплочение, объединение всех представителей человечества в единую общность и развитие единого информа­ционного пула.

Подстать развитию информационного пула идет и реализа­ция логической информации. Операторами, способствующими осуществлению целенаправленных действий и кодируемыми ге­нетической информацией, служат все негенетические компоненты живых организмов. В случае поведенческой информации таким оператором является поведение животных в разных ситуациях. Дли логической информации в роли операторов выступают тех­нологии вся совокупность технологических приемов и процессов, известных человеку. Эти операторы существуют вне зави­симости от желания и воли отдельных людей, как и кодирую­щая их логическая информация.

Мы сейчас находимся в фазе становления «информационного общества». Все новые достижения логической информации и ос­нованных на ней технологий уже практически полностью объе­динены в единый информационный пул и единую технологичес­кую систему планеты. Этому соответствует такое же (правда, идущее с некоторым запаздыванием) объединение человечества в разных регионах земного шара. Ведущая роль информации в этом процессе очевидна и не требует доказательств. От предсказаний: «Что нас ожидает завтра?» мы воздержимся по той простой причине, что наше будущее принципиально непредска­зуемо: даже небольшие изменения в информационном пуле, не­предвидимые заранее, могут существенным образом видоизме­нить связанные с ними технологии, а следовательно, и наше с вами существование.

Автогенез информации

Первичные живые организмы возникли на нашей планете более 4 млрд. лет назад. Тем самым предшествовавшая неор­ганическая эволюция дополнилась эволюцией живых организ­мов [17], в форме которой выступила новая, ранее не сущест­вовавшая на Земле сущность – генетическая информация. За­кономерности развития информации позволяют понять, как появились новые виды живых организмов, а по существу -новые варианты генетической информации [28]. Попадая во все более сложные условия, в создании которых информация принимала все большее участие через «наработку» побочных продуктов своей деятельности, живые организмы, подчиняясь естественному отбору, увеличивали количество содержащейся в них информации, повышали ее ценность, оптимизировали эф­фективность.

Различные варианты генетической информации менялись как количественно, так и качественно. В результате живой мир постепенно распространялся по всей планете. Вслед за прокариотами (бактериями) появились эукариоты растения, грибы и животные. Количество генетической информации, со­держащейся в клетках этих организмов, стремилось к возмож­ному для них максимуму [29]. Для координации действий у одной из групп гетеротрофных организмов многоклеточных животных образовалась нервная система. У высших живот­ных поведенческие реакции, играющие все большую роль в их жизнедеятельности, не ограничивались уже теми, которые пе­редаются по наследству, а создавались и самостоятельно, на основании «жизненного опыта», и передавались потомкам че­рез обучение. Так возникла поведенческая информация, по ла­бильности и скорости передачи существенно превосходящая генетическую.

Поведенческая информация образовалась на основе врожден­ных поведенческих реакций, генетически запрограммированных в нервной системе. Это ярчайший пример перехода информации из одной формы в другую, с носителей одной природы (молеку­лы  ДНК)  на  носители  другой  природы   (нервные  клетки).  Для высших животных, обитающих в сложной природной среде, умение «вести себя» в тех или иных ситуациях играет такую же роль для выживания, как для простых живых существ «умение» потреблять нужную пищу, строить из нее свое тело и выраба­тывать нуклеотиды, необходимые для размножения молекул ДНК. Поведенческая информация позволяла высшим животным не только ориентироваться в окружающей среде, но и взаимо­действовать друг с другом в поисках пищи и половых партне­ров, в воспитании и обучении потомства, в защите от врагов. Вырабатывались различные сигналы, которыми обменивались друг с другом высшие животные: химические метки, знаки на земле или коре деревьев и, конечно, звуки, имеющие разное значение в разных ситуациях. Так постепенно готовилась почва для формирования речи способа обмена информацией путем различной последовательности звуков и их комбинаций. Скла­дывалась человеческая речь.

Появление владеющего речью «человека говорящего» означа­ло возникновение нового вида информации информации ло­гической. Б. Ф. Поршнев [30] связывал появление речи с форми­рованием самого человека. Не труд, а речь сделала человека тем, что он есть. Трудиться может и «бессловесная тварь», не жалея сил и преодолевая разные препятствия для достижения своей цели построения гнезда или плотины, при охоте за дичью. Но организовать труд, передавать друг другу уже приобретенные трудовые навыки, обобщать опыт и в сжатом виде трансфор­мировать его в понятия для всего этого необходима речь.

Если генетическая информация породила жизнь, поведенчес­кая обеспечила разнообразие поведения высших животных, то логическая информация, передаваемая с помощью речи, вначале устной, а затем и письменной, ознаменовала начало эры ноогенеза, эры рождения сферы разума, охватывающего, вслед за биосферой, весь земной шар. На основе логической информа­ции, или, другими словами, на основе накапливаемого человече­ством знания, начали развиваться технологии. Этим термином называют искусственно создаваемые человеком структуры и процессы, обеспечивающие его существование, а тем самым и размножение тех фрагментов логической информации, которые вызвали их к жизни. Если технология себя не оправдывает, че­ловек ее отбрасывает, и лежащая в ее основе логическая ин­формация утрачивается (забывается).

Так же, как биологическая эволюция представляет собой лишь «отражение в мире вещей» развивающейся генетической и поведенческой информации, так и техногенез лишь отражение развития логической информации, существующей вне отдельных человеческих существ.

Предвидимо ли будущее?

Мы живем в мире неравновесных процессов. Математические задачи при решении нелинейных дифференциальных уравнений, о которых шла речь выше, приводят к области, называемой теорией бифуркаций. Это говорит о том, что если близко от точки равновесия система имеет единственное решение, то вдали от равновесия при некотором значении критических параметров в области неустойчивости она достигает точки бифуркации, на­чиная от которой для системы открываются новые возможно­сти, приводящие к одному или нескольким решениям. Теория бифуркаций находит бесчисленные приложения начиная от фи­зики, кончая экономикой и социологией. Попробуем построить приблизительные решения для судьбы логической информации.

Судя по аналогии с предыдущими видами информации, мож­но предположить автотрофное существование логической ин­формации, подобно автотрофному типу питания, избранному растениями. Но у растений переход этот был связан с совер­шенствованием отдельных индивидуумов, представляющих собой искусные «живые фабрики» по производству глюкозы из воды и углекислого газа (с помощью квантов солнечного света) и ис­пользующих этот продукт для энергообеспечения синтеза моле­кул, слагающих их тела. В случае же логической информации иной путь к автотрофности возникновение технологий, использующих тот же солнечный свет (а может быть, и термо­ядерный синтез) как источник энергии и «подручное» неоргани­ческое сырье для создания сначала систем жизнеобеспечения человека, а затем, возможно, и для строительства самовоспроиз­водящихся автоматов. Следует, однако, подчеркнуть, что автотрофность человечества это такая же вольная фантазия, как и все другие футурологические рассуждения. Единственное, чему нас учит история, это непредсказуемость будущего.

Пусть читатель не судит очень строго нашу попытку, в меру понимания, представить эволюцию информации, в особенности последний, биологический, этап ее развития. Нашей задачей мы считали не столько ответить, сколько поставить вопросы эво­люции, используя идеи из разных областей знания.

Литература

1.     Шеннон К. Математическая теория связи // «К. Шеннон. Работы по теории информации и кибернетике». М.: И ИЛ,  1963.  С. 243-332.

2.     Бриллюэн Л. Научная неопределенность и информация. М.: «Мир», 1966.

3.     Кадомцев Б. Б. Динамика и  информация. Редакция  журнала «Успехи физических наук»,  1997.

4.  Kolmogorov А. N. Infomation transmission.  V.I, 1965. № 3.

5.     Zurek W. H. Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990.

6.     Дастр Н. Жизнь материи. Краткий систематический словарь биоло­гических наук. Ч. 3. СПб.: 1904. С. 5-31.

7.     Лункевич В. В. Основы жизни. Ч. 1., М.-Л.: 1928

8.     Дриш Г. Витализм. Его история и система. М.: 1915.

9.     Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72.

10.     Корогодин В. И. Определение понятия «информация» и возможности его   использования  в  биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177.

11.     Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY.  1962.

12.     Баблоянц А. Молекулы, динамика и жизнь. М.: «Мир», 1970.

13.     Моисеев Н. Расставание с простотой. М.: Аграф. 1998.

14.     фон  Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101.

15.     Винер Н. Кибернетика, или управление и связь в животном и ма­шине. М.: «Советское радио»,  1968.

16.     Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив.,  1973.

17.     Эйген М., Шустер П. Гиперцикл. М.: «Наука», 1980.

18.     Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947.

19.     Тимофеев-Ресовский Н. В., Циммер К. Г., Дельбрюк М. О природе генных  мутаций  и  структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: «Медицина», 1996. С. 105-153.

20.     Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз,  1937,  С. 178-205.

21.     Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные ра­боты по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177.

22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922.

23.     Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений,   Т. 5, М.-Л.: Изд. АН СССР.  С. 210-216.

24.     Tinbergen N. The Study of Instinct. Oxf.: 1969.

25.     Лоренц К. 3. Кольцо царя Соломона. М.: «Знание», 1978.

26. Панов Е. Н. Этология ее истоки, становление и место в исследовании поведения. М.: «Знание»,  1975.

27.     Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977.

28.     Корогодин В. И. Информация и феномен жизни. Пущшо: 1991.

29.     Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667.

30. Поршнев Б. Ю. О начале человеческой истории (Проблемы  палеопсихологии). М.: «Наука»,  1976.

 

Глава первая

ИСТОРИЧЕСКАЯ СПРАВКА

Термин «информация»

Термин «информация» пришел к нам из латинского языка (informatio), и обычно переводится как «представление», «поня­тие» (о чем-либо), «изложение», «сведения», «осведомление», «сообщение» и т.п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. На­лимов [1] приводит несколько попыток определить понятие «информация», предпринятых разными авторами, ни одну из кото­рых нельзя признать удавшейся. «Даже эта совсем небольшая подборка определений понятия «информация», – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитив­ным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затем­няющие его смысл и уже безусловно увеличивающие семантиче­ский полиморфизм этого слова» (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином.

Определить понятие можно двумя способами либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов опре­деления лежит возможность расчленить, подразделить смежные понятия или феномены, т.е. дискретность. Дискретность, как из­вестно, фундаментальное свойство материального мира, т.е. ми­ра вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, не­разрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что «Информация есть информация, а не материя и не энергия» (стр. 201), т.е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упо­мянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина.

Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая ха­рактерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направ­ления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.

Формула Шеннона

Возникновение классической теории информации было инду­цировано развитием технических систем связи, призванных слу­жить обмену информацией между людьми. Подчеркнем технических систем, работа которых определяется законами физики, т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сде­лали сотрудники Bell Telephon Companie X. Найквист, Р. Харт­ли и К. Шеннон [3].

В 1924 г. X. Найквист предложил измерять количество ин­формации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал приме­нять логарифм этой величины, т.е. log(1/n). Двадцать лет спустя, в  1948 г., К. Шеннон для этой же цели ввел величину

                                            (6)

где Hi количество информации, связанное с i-ой буквой алфа­вита, pi частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k коэффициент пропорционально­сти, величина которого зависит от q и от избранных единиц измерения количества информации; знак «минус» перед k по­ставлен для того, чтобы величина Hi всегда была положитель­ной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет

                 (7)

  где mi число i-х букв в сообщении

К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь «типичный состав»: (тi/М → рi).  Сле­довательно,

                              (8)

В случае бинарного кода, когда n = 2, а р1 = р2 = 0,5, q=2 и k=1, количество информации Нм становится равным М и вы­ражается в так называемых бинарных единицах битах.

Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтро­пии источников сообщений, для улучшения методов кодирова­ния и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оп­тимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном «математической теорией связи», и явилась основой классической теории инфор­мации.

Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия «информация». Во-вторых, термин «количество инфор­мации» здесь используется как синоним статистических характе­ристик букв, составляющих сообщение. В-третьих, по отноше­нию к источнику сообщений здесь применяется слово «энтро­пия». Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.

Отсутствие определения понятия «информация» в работах К. Шеннона и его предшественников, по-видимому, довольно ес­тественно они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т.е. информацию, было очевидно, ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограни­ченным числом сигналов или букв. При этом передают по ка­налам связи именно буквы, сигналы, а не информацию как та­ковую. Объекты передачи, следовательно, имеют материальную, физическую природу обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос «Что такое информация?», а вопрос «Какое количество информации можно передать в единицу времени, пользуясь данным набором сигна­лов?». Предложенное К. Шенноном определение «количества информации» (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера «количества информации» создавала ощуще­ние, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие появление данного сигнала на выходе канала связи, тем больше это событие «несет с собой» информации.

Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, переда­ваемые по каналам связи, сами по себе не несут той информа­ции, для обмена которой существуют системы связи. Информа­цию содержат лишь сочетания сигналов или букв, причем от­нюдь не любые, а лишь осмысленные, наполненные определен­ным содержанием. Введение единой меры количества информа­ции, содержащейся в сообщениях, меры, не зависящей от их се­мантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения.

Напомним, что ко времени выхода в свет работы К. Шенно­на [3] научная общественность была уже подготовлена к ее вос­приятию. Зарождавшаяся тогда же кибернетика, или «наука об управлении и связи в животном и машине» [2], уже использовала термин «информация» для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или ма­шиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое «поведение». Уже был пу­щен в оборот термин «генетическая информация» [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию «информация» полиморфизма в целях раз­работки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответство­вала шенноновская концепция количества информации.

Однако надо ясно представить себе, что, не давая определе­ния понятию «информация» и в то же время называя «количеством информации» частотную   характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совер­шенно разных по своей природе феноменов информации как семантики сообщения и «информации» как частоты осуществле­ния какого-либо события. Это делало возможной подмену тер­минов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо со­бытия. Термин «информация» в указанном выше смысле окон­чательно слился с термином «количество информации».

Формула К. Шеннона (6) по структуре своей подобна форму­ле, предложенной Л. Больцманом для выражения количества эн­тропии. Это формальное сходство послужило К. Шеннону пово­дом называть «энтропией», по аналогии с физической энтропи­ей, свойство источника сообщений порождать в единицу време­ни то или иное число сигналов на выходе, а «энтропией сооб­щения» – частотную характеристику самих сообщений, выражаемую формулами (6) и (7).

Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала види­мость столь же легкого решения и других связанных с исполь­зованием термина «информации» проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информа­ции, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе «Бандвагон» [7].

Информация и энтропия

Своей зрелости классическая теория информации достигла к середине пятидесятых годов. Главная причина столь быстрого  «созревания» простота и элегантность ее математического ап­парата, опирающегося на теорию вероятности.

Отсутствие строгого определения понятия «информация» соз­давало впечатление, что объектом теории информации является нечто, имеющее мало общего с тем, что называют информацией в обыденной жизни. Действительно, если «в быту» доминирует содержательная, смысловая сторона информации, то здесь се­мантика информации вообще не рассматривалась. Представление об энтропии сообщений, развитое К. Шенноном и вскоре до­полненное другими авторами (см. напр. [8-10]), как бы открыва­ло возможность для отождествления понятия «информация» с понятиями «разнообразие» и «термодинамическая энтропия». Это   порождало   соблазн   распространения   классической   теории информации далеко за пределы теории связи, в том числе на явления неживой и живой природы и даже на различные облас­ти искусства [11-13].

Два утверждения характерны для классической теории ин­формации периода зрелости. Первое это постулирование «всюдности» информации. Второе утверждение это то, что мерой количества информации, связанной с тем или иным объ­ектом или явлением, может служить редкость его встречаемости или сложность его структуры. Эти утверждения можно назвать постулатами классической теории.

Указанные постулаты, а также следствия из них, наиболее полно были изложены Л. Бриллюэном в его книгах [5, 6]. Прежде всего, за универсальную меру количества информации Л. Бриллюэн принял величину I = klnP, где Р - вероятность осущест­вления некоторого события или «сложность устройства» какого-либо объекта, k - постоянная, величина которой зависит от вы­бора системы единиц измерения, a ln - натуральный логарифм. Далее Л. Бриллюэн обратил особое внимание на сходство ука­занной формулы с формулой Л. Больцмана для исчисления ко­личества энтропии S = klnW, где W - число микросостояний не­которой системы, соответствующей ее макросостоянию, а k - «по­стоянная Больцмана», равная 1,4·10-16 эрг-град-1 или 3,3·10-24 эн­тропийных единиц (1 э.е. = 1 кал'град-1). Отсюда Л. Бриллюэн сде­лал вывод, что, приняв k = 3,3·10-24 э.е., мы получим возможность выражать количество информации в энтропийных единицах (1 бит = 2,3·10-24 э.е.), а величину энтропии, напротив, в единицах информационных (1 э.е. = 4,3·1023 бит). Затем он сделал послед­ний шаг в построении «негэнтропииного принципа»: сформули­ровал утверждение, согласно которому информация это не что иное, как энтропия с обратным знаком, или негэнтропия.

Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных со­стояний. Увеличение информации о ней, что было бы эквива­лентно фиксации в определенном состоянии, приведет к умень­шению энтропии системы. Другими словами,

I + S = const.                                      (9)

Чем больше известно о системе, тем меньше ее энтропия. Важ­но еще одно обстоятельство. Утрачивая информацию, мы уве­личиваем энтропию системы. Увеличивать информацию о систе­ме мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда

Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятно­сти  отдельных  состояний  системы  различаются  (3),  формально совпадают. Мы замечали, что они имеют совершенно различ­ный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информа­ции I = lnW. Энтропия (3) соответствует возможности нахожде­ния системы с некоторой вероятностью I/W в каждом из дос­тупных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.

В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к «забыванию» информации, и мы прихо­дим к соотношению I + S = const. В соответствии со вторым за­коном термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотноше­ние (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы.

Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать «физической информацией». Колмогоров [15] ввел понятие «алгоритмической информации». Алгоритмическую информацию можно рассматривать как меру алгоритмической хао­тичности. Алгоритмическая информация практически совпадает с информацией по Шеннону.

Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радио­чувствительность клеток популяции дрожжей. Мы ставим экспе­римент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем ра­диочувствительность клеток по числу выросших колоний. В хо­де этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каж­дой клетки. Тем самым мы выбираем и фиксируем одно един­ственное состояние из всех возможных. Этот эксперимент, кото­рый выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т.д.). Второй пример завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (нака­чивание внешней 7) перед выборами сменяются крайней полити­зацией. После выборов определяется количество проголосовав­ших за того или иного кандидата поведение электората соответствует максимуму «информированности» о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.

Кратко резюмируя изложенное, можно заключить, что рожде­ние новой информации всегда происходит в открытых системах, где параметры порядка становятся динамическими переменными.

В следующем параграфе мы рассмотрим системы с диссипа­цией избыточной внутренней энтропии.

Диссипативные структуры

Пусть будет некоторая открытая система, из которой посто­янно удаляется шлак избыточной энтропии за счет роста энтро­пии внешней среды. Эта система является «диссипативной структурой». Пригожий с сотрудниками [16, 17] показали, что диссипативными структурами будут являться все разнообразные колебательные, пространственно организованные и пространст­венно-временные упорядоченные системы.

Для возникновения диссипативных структур необходимы сле­дующие условия:

1. система должна быть  открытой  и  находиться  вдали  от тер­модинамического равновесия;

2.       в системе должны протекать различные каталитические и кросс-каталитические процессы, а также  наблюдаться регуля­ция по типу обратной связи;

3.       после некоторого критического значения параметров системы или какого-либо   внешнего воздействия состояние системы становится неустойчивым и система может перейти  в новое стационарное состояние, режим которого соответствует  упорядоченному состоянию.

Под влиянием флуктуации отдельные элементы системы, взаимодействуя, обнаруживают свойства, характеризующие сис­тему в целом, которые невозможно предсказать на основании свойств ее отдельных элементов. Такие структуры хорошо опи­сываются нелинейными дифференциальными уравнениями. При­меры диссипативных структур можно взять из разных областей физики, химии, биологии.

Одной из давно известных таких самоорганизующихся струк­тур является реакция Белоусова-Жаботинского [18, 19]. Бросается в глаза большое число промежуточных соединений системы, ко­торые соответствуют такому же числу дифференциальных уравнений. Для каждого из этих уравнений константа скорости должна быть получена из эксперимента. Один из этапов реак­ции является автокаталитическим.

Молекулярная эволюция. Гиперциклы Эйгена

В 1971 г. М. Эйген [20] сформулировал последовательную концеп­цию предбиологической молекулярной эволюции. Эйген распро­странил идеи дарвиновского отбора на популяции макромолекул в первичном бульоне. Далее он показал, что кооперирование мо­лекул в «гиперциклы» приводит к компартментализации в виде отдельных клеточных единиц. Гиперцикл это средство объеди­нения самовоспроизводящихся единиц в новую устойчивую систе­му, способную к эволюции. Он построен из автокатализаторов, которые сочленены посредством циклического катализа, т.е. посред­ством еще одного автокатализа, наложенного на систему.

Дарвиновский отбор, являющийся предпосылкой для возник­новения гиперциклов, на молекулярном уровне может иметь ме­сто в системах, обладающих следующими свойствами:

1. метаболизмом система должна быть далеко от равновесия. Образование и разложение молекулярных видов должны быть независимы. Отбор должен действовать только на промежуточные состояния, которые образуются из высокоэнергетических предшественников и разрушаются в низкоэнергетические отходы. Система должна использовать освободившуюся энергию и вещества;

2.       самовоспроизведением способностью инструктировать свой соб­ственный синтез;

3.   мутабилъностью, которая всегда сопутствует самовоспроизведению. Ошибки копирования основной источник новой информации. Образование и отшлифовка эйгеновских гиперциклов привели к созданию аппарата трансляции. Образование вслед за этим клеточ­ной мембраны завершило предбиологический период эволюции.

Семантика

Вернемся снова к формуле Шеннона (6) и проанализируем текст «Завтра будет буря». Действительно, осмысленность или информация текста «Завтра будет буря» очевидна. Достаточно, однако, сохранив все элементы (буквы) этого сообщения, пере­ставить их случайным образом, например, «рдеа Звубуб траяи», как оно утратит всякий смысл. Но бессмысленной информации не бывает. Согласно же формуле (7) оба предложения содержат одинаковое «количество информации». О какой же информации здесь идет речь? Или, вообще, можно ли говорить об информа­ции по отношению к разрозненным элементам сообщения?..

Очевидно, отдельные элементы сообщения можно назвать «информацией» лишь при условии, если перестать связывать информацию с осмысленностью, т.е. с  содержательностью. Но тогда это бессодержательное нечто вряд ли стоит называть «информацией», вкладывая в первичный термин несвойственный ему смысл. Учитывая, однако, что элементы сообщения реально используются для составления осмысленных текстов, содержащих информацию, эти элементы (буквы, сигналы, звуки) удобнее трактовать как информационную тару, которая может содер­жать информацию, а может быть и бессодержательной, пустой [21]. Очевидно, что емкость тары не зависит от того, заполнена ли она и чем она заполнена. Поэтому частотную характеристи­ку элементов сообщения

лучше называть не «коли­чеством информации», а «емкостью информационной тары». Это, кстати, хорошо согласуется с формулой К. Шеннона (7), по которой «количество информации» в данном сообщении не за­висит от порядка следования составляющих его букв, а только от их числа и частотных характеристик.

Однако здесь резонно возникает вопрос, насколько обосно­ванно считать

емкостью i-го элемента информаци­онной тары? Судя по работе [3], такой способ измерения коли­чества информации введен скорее из соображений удобств. Ко­эффициент k здесь играет подсобную роль – его величина зави­сит от выбора единицы измерения количества информации (или емкости тары) и основания логарифма. Как мы уже отмечали, если за такую единицу принять бит, т.е. информационную ем­кость одного элемента стандартного бинарного кода, когда р12 = 0,5, а за основание логарифмов «2», то k=1, и тогда формула (7) приобретет вид Нм = М. В общем же случае эту формулу можно записать как (1), что по смыслу своему пред­ставляет собой не что иное, как расчет числа букв бинарного кода, требующегося для записи данного сообщения. При такой интерпретации выбор единицы измерения емкости тары и способа определения этой емкости приобретает обычное звучание, но, конечно, лишь при условии максимальной компактности кода (когда реже встречающиеся в языке символы заменяются боль­шим числом букв бинарного кода, чем чаще встречающиеся) и только в пределах данного разговорного языка. Сохранится ли это правило перехода от одного кода к другому для разных разговорных языков? А также от одного языка к другому?

Заметим, однако, два обстоятельства в данном примере текста «Завтра будет буря». Первое текст понятен русскому, но является «китайской грамотой» для китайца. Это говорит о том, что каж­дый раз, когда мы говорим о семантике, необходимо иметь в ви­ду семантическое родство сообщения и воспринимающей системы.

Второе обстоятельство касается того, что текст замкнутая система.

Перейдем к открытым динамическим системам. Как мы уже отмечали, в таких системах будут возникать  параметры  порядка, именно они станут «семантикой информации», адекватной внешней среде. На основании этой новой информации будет идти естественный отбор на выживание этих организованных систем. Дарвиновский отбор накладывает ограничения на объ­екты всех уровней физические, химические, биологические и другие [22]. В биологических системах первым уровнем дарви­новского отбора является генетический отбор. В этой моногра­фии мы будем рассматривать биологические системы, начиная с генетической живой клетки.

Литература

1. Налимов В. В. Вероятностная модель языка. М., «Наука». 1979.

2.    Винер Н. Кибернетика, или управление и связь в животном и маши­не. М., Советское радио, 1968.

3.    Шеннон К. Математическая теория связи.  В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-496.

4.    Шредингер Э. Что такое жизнь с точки зрения физика? М., Гос. изд. ин. лит. 1947.

5.    Бриллюэн Л.   Наука   и   теория   информации. М., Гос. изд. физ.-мат. лит., 1960.

6.    Бриллюэн Л. Научная неопределенность и информация. М., «Мир», 1966.

7.    Шеннон К. Бандвагон. В кн.:  Работы по теории  информации и кибернетике. М., Изд. ин. лит., 1963, С. 667-668.

8.    Голдман С. Теория информации. М., Изд. ин. лит.,  1957.

9.    Стратанович Р. Л. Теория информации. М., «Советское радио», 1975.

10.     Яглом А. М., Яглом И. М. Вероятность и информация. М., «Наука», 1973

11.     Коган И. М. Прикладная теория информации. М., «Радио и связь», 1981.

12.     Поплавский Р. П. Термодинамика информационных   процессов. М, «Наука», 1981.

13.     Седов Е. А. Эволюция и информация. М., «Наука»,  1976.

14.     Кадомцев Б. Б. Динамика и информация. М.: Ред. ж.  УФН, 1997.

15.     Колмогоров А. Н. Теория информации и теория алгоритмов. М., «Наука», 1987.

16.     Гленсдорф П., Пригожий И. Термодинамическая теория структуры, устойчивости и флуктуации. М.: «Мир», 1973.

17.     Баблоянц А. Молекулы, динамика и жизнь. М., «Мир», 1990.

18.     Белоусов Б. П. Периодически действующая реакция  и ее механизмы. В Сб. рефер. по радиац. мед. за 1958 г. М.: Медгиз, 1959.

19.     Жаботинский А. М. Концентрационные автоколебания. М.:«Наука», 1974

20.     Эйген М. Самоорганизация материи и эволюция биологических макромолекул. М.:«Мир», 1976.

21.     Корогодин В. И. Определение понятия «информация» и возможное его использования в биологии. Биофизика,  1983, т. 28, с. 171-178.

22.     Моисеев Н. Н. Алгоритмы развития. М., «Наука», 1987.

 

Глава вторая

ИНФОРМАЦИЯ  И  ЕЕ СВОЙСТВА

Дуальность окружающего мира

События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соот­ветствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу отно­сятся события из мира живой природы [1-3].

Изменениями обычно называют все, что происходит с ок­ружающими нас объектами и с нами самими с течением вре­мени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некото­рый данный момент. Изменяется все: «Ничто не вечно под лу­ной». Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежно­стью определяют направления, характер и скорость их изме­нений, будь то атом, человек или Вселенная. Конечным ито­гом таких изменений всегда и неизбежно является гибель, рас­пад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней сре­де, что одни процессы в них идут чаще, другие реже, адек­ватно условиям среды.

Рассмотрим по одному примеру из первого и второго клас­сов объектов: рост кристаллов и размножение бактерий. Кри­сталлы могут расти и размножаться, присоединяя к «матрице» –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут раз­лагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, в данном примере бактерии, они разлагают окружающие их вещества и уже из полученных «элементарных кирпичиков» строят заново те мо­лекулы, которые используют для своего роста и размножения.

Кристаллы для своего роста используют то, что уже есть, жи­вые организмы создают то, что им нужно, используя окру­жающие их вещества для получения строительного материала и свободной энергии.

Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различаю­щиеся между собой различия эти не случайны, а определя­ются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над про­шлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, все­гда имеет в виду конечную цель размножение данного ор­ганизма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т.е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организ­ма его самовоспроизведение.

Чтобы понять природу того или иного изменения, доста­точно ответить на вопрос: «Почему?». Вопросы типа «Почему светит Солнце?», «Почему ржавеет железо?», «Почему орел может летать?» полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа «Для чего светит Солнце?» или «Для чего идет дождь?» лишены смысла и ответов не имеют, тогда как вопросы типа «Для чего летает орел?» вполне осмысленны и предполагают тот или иной ответ.

Дело в том, что полет орла, как и другие действия живых объек­тов, относятся к типу целенаправленных. Когда же речь идет о це­ленаправленных действиях, доминирующее значение приобретает вопрос «Для чего?». Ответ на вопрос «Почему?» здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. «Для чего цветут розы?», «Для че­го поют соловьи?» вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и живот­ные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять...

Казуальность и телелогичность вот те два принципа, ко­торые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоя­щее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возника­ют и развиваются островки иного мира, где настоящее подчи­няется будущему, где те или иные события происходят не только «потому, что...», но также «для того, чтобы...». Этот вторичный по отношению к  миру косной  материи  мир жизни  становится все могущественнее, он постепенно как бы вбирает, трансфор­мирует в себя окружающую среду, все в большей степени кон­тролируя происходящие в ней изменения, направляя их в нуж­ное ему русло.

Чтобы избежать возможных недоразумений, заметим, что ан­тропоморфизм таких терминов, как «контролирует», «стремится» и т.п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет.

Целенаправленность и целесообразность

Таким образом, мы наметили свойство, необходимо прису­щее всем живым организмам. Свойство это осуществлять целенаправленные действия. Обеспечивается это тем, что жи­вые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т.е. организованы соответст­вующим образом, или целесообразно.

Сопоставим теперь два термина «целенаправленность» и «целесообразность». Термин «целенаправленность» характеризу­ет действие в предположении, что цель его известна или может быть установлена. Термин же «целесообразность» допуска­ет двоякую интерпретацию: такую организацию, которая дела­ет возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две ин­терпретации термина «целесообразность» не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия.

Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом построить его в со­ответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила сущест­вовавшую вплоть до середины XIX века веру в присущую живым   организмам   «жизненную   силу»,   или   «энтелехию»,   вызывающую их из небытия и управляющую их жизнедеятельно­стью и размножением.

Целенаправленное действие. Его компоненты и характеристики

Специфичность целенаправленного действия для живых орга­низмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия «целенаправленное действие» попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что специфического.

Пусть s «исходная ситуация» или пространство режимов, в котором могут происходить различные события. Пусть Z - од­но из таких событий, вероятность осуществления которого 0≤ р ≤1. Тогда спонтанное осуществление Z можно описать преобразованием

                              (10)

где w - другие изменения исходной ситуации, неизбежно сопут­ствующие осуществлению Z.

Назовем событие Z «целью». Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет «целенаправленное дей­ствие». Описать его можно как

                (11) 

где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q «механизм», или оператор, применение которого в условиях s приводит к желаемому результату; I информация, на основании которой этот оператор построен; и w со­бытия, неизбежно сопутствующие осуществлению Z, или «побоч­ные продукты» достижения цели.

Назовем R, s, Q, I, Z и w компонентами целенаправленного действия, а р и Р его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправ­ленного действия: любое действие, сколь бы ни было оно про­стым или сложным, можно полностью описать, задав его ком­поненты и характеристики.

Сопоставляя выражения (10) и (11), мы видим, что целена­правленные действия отличаются от спонтанных изменений лишь в одном отношении наличием компонента  Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обу­словливается только тем, что оператор Q организован так, что­бы его «вмешательство» в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным.

Информация

Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, от­личающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т.е. заранее имеющейся программой или планом. Совокуп­ность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией. Обозначать информа­цию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информаци­ей I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации.

Таким образом, мы определили информацию как «руководст­во к действию», как то, что необходимо для построения любого оператора [4]. Естественно возникают вопросы о правомочности и адекватности такого определения.

Мы используем операционное определение понятия «инфор­мация», а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого спо­соба не произволен: опыт показывает, что понятие «информа­ция» невозможно вывести из представлений, относящихся к ми­ру вещей, ведь, как отмечал Н. Винер [5], «информация есть информация, а не материя и не энергия». Определение инфор­мации через описание форм ее проявления и ее свойств пред­ставляется вполне правомочным. Формой проявления информа­ции, как мы видели, и является оператор необходимый ком­понент целенаправленного действия.

Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином.

Обыденное понимание слова «информация» наиболее близко к его исходному значению: это либо «сведения, содержащиеся в сообщении» (имя существительное), либо «процесс передачи сведений» (глагол). В обоих случаях слово «информация» отражает тесную связь между «сведениями» (собственно «информация») и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от «отправителя» (источника информации) к «адресату» (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика ис­пользования информации определяется ее семантикой. Предпо­лагается при этом, что одни и те же сведения т.е. информа­ция, обладающая одной и той же семантикой, могут быть пе­реданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т.е. матери­альный объект. Само собой разумеется, что природа этого фе­номена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно переда­вать самую разную информацию.

Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохра­нять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и пере­дачей, позволяет также «запасать информацию впрок», про за­пас, на всякий случай. Физическая природа сообщений или за­писей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть и, по существу, всегда бывает разная.

Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационны­ми актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществлять­ся сам по себе, спонтанно, для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, бу­дем называть информационной системой. Элементарной инфор­мационной системой будем называть такую, дальнейшее подраз­деление которой приведет к расчленению механизмов, обеспечи­вающих осуществление отдельных элементарных информацион­ных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.

Ниже мы увидим, что все эти особенности информации, хо­рошо знакомые нам из повседневного опыта, являются следст­виями из ее свойств, общих для всех известных нам видов ин­формации.

Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными систе­мами. При этом мы все время должны иметь ввиду, что ин­формация может существовать только в какой-либо информаци­онной системе, в виде «записи» на том или ином «носителе»; что семантика информации не связана со способом ее записи и физической природой носителя.

Так как слово «информация» первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой инфор­мационные системы высокого ранга, сложнейшим образом пере­плетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для чело­века информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием.

Информацией называют также те сведения, которыми обме­ниваются между собой животные и которые, будучи восприня­ты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сиг­налов, в ходе обучения (например, родителями детенышей), пу­тем подражания другим особям или создается в мозгу животно­го заново, на основе собственного жизненного опыта. Это поведенческая информация. Информационными системами, опе­рирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одно­клеточные.

Третий известный нам вид биологической информации ге­нетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и виру­сов. Специфическими для этой информации системами являются все генетические компоненты живых организмов.

Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом.

На последнем утверждении стоит дополнительно остановить­ся. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень   характерны   передача   и   утеря   информации.   Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в ие­рархически подобную или более высокую информационную сис­тему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информа­ции. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, напри­мер генетической, может иметь разные последствия для орга­низмов, в том числе и положительные, но в определенных си­туациях она может попадать во внешнюю среду вне своей ин­формационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информа­ционную систему (горизонтальный перенос генетической инфор­мации, см., например [6, 7]), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Из­менение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, од­нако, совершенно ясно, что возникать самостоятельно, вне жи­вых организмов, биологическая информация не способна [8].

Однако как в обыденной жизни, так и в научной литературе «информацией» нередко называют все, что может воздейство­вать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источ­никами таких воздействий живые или неживые объекты [9]. В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исче­зают различия между совокупностью сигналов, обладающей се­мантикой, родственных источнику и приемнику, и «слепым» воздействием одного объекта на другой.

Чтобы отличать сигналы или воздействия, содержащие ин­формацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особен­ностях материала носителя, способа фиксации, выбора языка и кода и т.д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от то­го, известен их источник или нет. Действительно, какая инфор­мация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные «сигналы» могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать «источниками» информации, и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюде­ний, измерений и т.п. процедур, производимых человеком: об­работку их нередко называют «обработкой информации», хотя на самом деле это есть один из этапов создания новой инфор­мации в человеческом мозге, а не «извлечение» ее из наблюде­ний и измерений.

Таким образом, внешние воздействия, воспринимаемые жи­выми организмами, можно подразделить на два класса: сообще­ния, или «носители информации», источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воз­действий, которым подвергаются живые организмы, весьма су­щественно для ясного понимания того, что именно представляет собой информацию.

Выше мы видели три вида биологической информации, и четвертого нам не известно. Это генетическая информация, поведенческая и логическая, или человеческое знание. Для каж­дого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информа­ционные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей.

Фиксируемость информации. Ее носители

Свойства, присущие всем видам информации, можно разде­лить на две группы, внутри каждой из которых они тесно свя­заны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах.

Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи «ни материей, ни энергией», она может существовать только в зафиксированном состоянии. Ни­кто никогда нигде не встречался с информацией, которая была бы в «свободном виде», а не в виде «записи» на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т.е. не имеют никакого отношения к ее семантике.

Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отно­шения, это физическая природа носителя и специфика «считы­вающего устройства» той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе.

Адекватность способа фиксации информации способу ее счи­тывания означает, что способ записи, носитель и считающее уст­ройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериоди­ческую форму[2]. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различ­ных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв.

Важнейшей особенностью фиксации любой информации яв­ляется возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность симво­лов или сигналов, используемых для фиксации и передачи ин­формации, или возможность считывания их в линейной последовательности.

Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информа­ции может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригод­ных для фиксации информации. А так как простейшим вариан­том различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциаль­ным носителем информации может быть любой феномен окру­жающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.

Следует, однако, проводить строгое различие между потен­циальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект инфор­мацию или нет.

Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информа­ции и могут ли они существовать вне своих информационных систем?

Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, со­ставленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным спо­собом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, со­ставленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, ал­фавит, способ «печати» и природу «подложки». Каждый из этих видов носителей может варьировать, разрушаться и исчезать не­зависимо один от другого. Очевидно, однако, носители инфор­мации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: сис­тему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать.

Физические объекты, содержащие информацию, могут нахо­диться как «внутри» своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в ре­зультате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от ин­формационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информацион­ной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел лю­бой информации, «вырвавшейся» из своей информационной сис­темы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убежде­ны, во-первых, в том, что возникла-то она обязательно в ка­кой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь «деградирует», но не «существует».

Теперь мы вплотную подошли к проблеме распознавания. Ес­ли имеется некий физический объект и мы хотим выяснить, со­держит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или мо­жет относиться? какие способы фиксации информации здесь ис­пользованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информа­ции на данной подложке, а не спонтанное ее возникновение, про­истекающее из самой природы объекта. Ведь сведения, которые мы «получаем», анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объек­те содержащейся, если, конечно, она там имеется.

Инвариантность информации по отношению к носителям

С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физиче­ской природе носителей [10]. Это важнейшее свойство информа­ции, и представлять его себе следует очень ясно.

Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее се­мантики, может быть «записана» на любом языке, любым ал­фавитом, т.е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни се­мантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее авто­номность и суверенность, которые сохраняются как бы напере­кор судьбе, обрекающей информацию быть вечным узником мира вещей ее физических носителей.

Инвариантность информации обусловливает возможность ис­пользовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных ак­тов создания, передачи, приема, хранения и использования информации. Для «перевода» информации с одной системы за­писи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвари­антности. Таким образом, именно инвариантность лежит в ос­нове возможности понимания информации перевода ее с чуж­дого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инва­риантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.

Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.

Количество информации и емкость информационной тары

Инвариантность информации по отношению к носителям соз­дает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т.е. как бы «сведения ее к единому знаменателю». Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой

            (12)

где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц   измерения   количества   информации   и   основания   логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р1 = ро = 0,5) величина Нм = М. Другими словами, количе­ство информации, выраженное в битах, равно числу знаков би­нарного алфавита, необходимому для ее записи.

Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по от­ношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измере­ния этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.

Свойство инвариантности, как мы уже видели, позволяет ут­верждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации языки, алфавиты, способы фиксации и подложки выступают как бы в роли «информационной тары», которая может содержать информа­цию, причем любую. Если представление о количестве инфор­мации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной та­ры должна быть одной и той же. Полагая элементарные носи­тели информации отдельные буквы алфавита дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по су­ществу означает, что для записи этого сообщения бинарным кодом требуется М букв.

Формулу (1) можно записать несколько иначе, а именно:

               (13)

Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данно­го количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может «вместиться» в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.

Итак, мы пришли к выводу, что информационная емкость i-го символа любого алфавита, выраженная в битах, равна –log2piгде pi есть частота встречаемости этого символа в данном язы­ке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.

Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации по­лучает адресат, воспринимая каждую из букв сообщения? Коли­чество такой информации он и предложил выражать через ве­личину Н и постулировал аддитивность этой величины по от­ношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих со­общение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители со­держат и содержат ли они ее вообще. Однако для теории ин­формации эти различия весьма существенны, и вот почему.

Рассмотрим два сообщения: «Каин убил Авеля» и «инилА ваКу лебя». Оба они состоят из одинаковых 15 знаков, но пер­вое – вполне осмысленно, т.е. содержит информацию, а второе представляет собой случайную последовательность букв и ника­кой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества инфор­мации, а емкости информационной тары. Первая фраза это тара, «полностью загруженная информацией», а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не за­висит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Ес­ли тара заполнена, то ее емкость может служить мерой количе­ства содержащегося в ней груза. Эти простые соображения по­зволяют сделать три вывода. Во-первых, если H-функцию счи­тать   емкостью   информационной   тары,   то   ее   в   равной   мере можно прилагать и к осмысленным, и к бессмысленным набо­рам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информа­ции, которая в ней может содержаться. В-третьих, при измере­нии в битах количество информации В, содержащейся в сооб­щении, заключено в интервал 0≤В≤Н, где Н – емкость со­ставляющих сообщение носителей информации. Н сообщения, таким образом, это верхняя граница того количества инфор­мации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте.

К этим же выводам можно прийти и другим путем, рассмат­ривая смысловое содержание понятия «избыточности», или ус­ловную вероятность встречаемости i-ro символа после 1-го, 2-го и т.д., а также после разных сочетаний двух, трех и т.д. симво­лов [11]. При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины pi независимо от i, стремятся к еди­нице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары инфор­мацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер [5], то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре ин­формации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно слу­чайном расположении составляющих сообщение букв.

Теперь вернемся опять к вопросу о дискретности и непре­рывности информации. То обстоятельство, что элементарные единицы носителей информации буквы дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуаль­ности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определен­ному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересно­му следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, за­писанного 24-х буквенным алфавитом, H = 78,37 бит, то при за­писи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изме­няется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хо­рошо соответствует описанной ситуации.

И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о «полной» или «непол­ной» информации, имея в виду достаточность или недостаточ­ность данной информации для построения какого-либо операто­ра. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпы­вающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как «полнота» и «не­полнота». Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненно­сти ею носителей), но не по самой информации, как таковой. Ведь «информация есть информация, а не материя и не энер­гия», и этого не следует забывать.

Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действи­тельности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т.е. с увеличением Н разность между М теоретиче­ским и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфа­витами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют.

Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипо­стасями ее носителей − языковой и алфавитной. Способ фикса­ции информации и природа ее носителя, столь важные для  сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее се­мантикой, т.е. семантика информации в пределах любого за­данного ее количества может быть любой.

Бренность информации

Итак, каждая данная информация, точнее, каждый ее экзем­пляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловлива­ет, прежде всего, такое свойство информации, как ее бренность, т.е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который ис­пользован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с дефор­мацией же носителя зафиксированная на нем информация изменя­ется или разрушается, т.е. исчезает. Таким образом, информация погибает только со своими носителями...

Транслируемость, размножаемость и мультипликативность информации

Бренности информации противостоит такое ее свойство, как транслируемость, т.е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи.

Пусть Vp - средняя скорость размножения информации в резуль­тате трансляции, a Vr средняя скорость ее гибели. Тогда отношение

                                (14)

будет характеризовать «жизнеспособность» информации. Действи­тельно, при L < 1 данная информация обречена на вымирание, не­зависимо от абсолютного значения Vp; L = 1 – нестабильное состоя­ние, соответствующее «прозябанию» информации [12]; a L>1оз­начает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта уд­воения.

Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т.е. возможность одновременного суще­ствования одной и той же информации в виде некоторого чис­ла идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не огра­ничено, т.е. может быть сколь угодно большим.

Изменчивость информации

Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям.

Если под гибелью информации понимать как ее исчезновение или разрушение, так и «обессмысливание», то под изменчиво­стью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут при­водить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых сим­волов или замена одних символов на другие. Масштабы таких событий (т.е. число выпавших, встроенных или замененных сим­волов), а также причины, к ним приводящие, могут быть са­мыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.

Подчеркнем, что транслируемость, изменчивость и мультип­ликативность информации вот те «три кита», на которых ба­зируются динамика и эволюция любой информации.

Действенность информации. Операторы

Выше мы перечислили ряд свойств, производных от первой ключевой особенности информации ее фиксируемости. Это – инвариантность информации по отношению к носителям, ее измеряемость, бренность, транслируемость, размножаемость, муль­типликативность и изменчивость. Вторым ключевым свойством информации является ее действенность, на чем мы сейчас и ос­тановимся.

Действенность информации может выявляться лишь в адек­ватной ей информационной системе, вне таковой любая ин­формация,   не   будучи   «ни   материей,   ни   энергией»,   абсолютно пассивна. Однако, будучи включена в свою информационную систему, информация, соответственно ее семантике, может быть использована для построения того или иного оператора, кото­рый, в свою очередь, будучи помещен в подходящее простран­ство режимов, может совершать те или иные целенаправленные действия. Оператор, таким образом, выступает в роли посред­ника, необходимого для проявления действенности информации. В связи с этим сам оператор может рассматриваться как реали­зованная или материализованная информация.

Действенность информации, проявляющаяся при посредстве оператора, является необходимым условием ее существования. «Бездеятельная» информация обречена на гибель и разрушение[3]. Вот почему можно утверждать, что каждая информация стре­мится материализоваться - воплотиться в соответствующий опе­ратор. Ведь информация, лишенная такой способности или ут­ратившая ее, обречена на гибель.

Семантика информации. Понятие цели

С действенностью информации тесно связано, прежде всего, такое ее свойство, как содержательность, или семантика. Из сказанного выше уже ясно, что семантика информации может проявляться лишь одним путем в специфике кодируемого ею оператора. Возможность быть использованной в ее материа­лизованном виде, т.е. в качестве оператора, – для достижения той или иной цели обусловливает ценность информации. То очевидное обстоятельство, что любой оператор, вообще говоря, может быть использован для достижения разных целей, опреде­ляет важнейшее свойство информации, которое может быть на­звано полипотентностью.

Действенность информации, как мы уже отмечали, может проявиться только через оператор материальный объект, ма­шину, созданную на ее основе. Заметим, что при реализации информации в оператор никакой «материализации» информации в том смысле, что информация исчезает, а вместо нее возникает оператор, не происходит. Но независимо от способа реализации справедливо утверждение, согласно которому каждая данная информация однозначно определяет оператор, для построения которого она использована. Однозначность здесь понимается в таком же смысле, как однозначность определения фенотипа генотипом. Определенность информации и позволяет ей проявить свою семантику.

Это отнюдь не тривиальное определение семантики инфор­мации требует более тщательного рассмотрения. В ходе этого рассмотрения выявится, что такое представление о семантике отражает, если можно так сказать, лишь «средний слой» этого понятия, имеющего как бы трехслойную структуру. Но этот средний слой реален и осязаем, тогда как верхний и нижний, или базовый, как бы размыты и не всегда очевидны.

Верхним наружным слоем семантики можно называть то, что обычно и связывают с этим словом, – ответ на вопрос «О чем повествует данная информация?». Этот слой легко выявляется в том виде информации, который мы называем логической, труд­нее в поведенческой информации, и почти не выявляем в ге­нетической информации. Верхний слой, однако, сам по себе не имеет смысла без возможности обеспечения организации опера­тора, что довольно ясно проступает в случае поведенческой ин­формации и доминирует в случае информации генетической. Однако средний слой также отступает на второй план перед вопросом «Для чего нужен данный оператор?» а ответ на этот вопрос, даваемый нижним слоем, и проясняет суть дела.

Вспомним, что свойство бренности означает, что данная ин­формация неизбежно погибнет, если не будет вовремя ретранс­лирована или размножена. Сама по себе информация размно­жаться не в состоянии. Реплицирует информацию только соот­ветствующее устройство, входящее во включающую его инфор­мационную систему. Об осознанности, преднамеренности подоб­ного действия не может быть и речи, оно осуществляется как бы само по себе, автоматически, при переходе информационной системы в соответствующее состояние. Все это позволяет утвер­ждать, что семантика любой информации должна определять такие особенности оператора, благодаря которым хотя бы в не­которых ситуациях происходило повышение вероятности репли­кации данной информации. Третий слой семантики любой ин­формации и представляет собой сведения о путях ее воспроизве­дения в некотором пространстве режимов. Собственное воспро­изведение цель, достижение которой обязательно «заложено» в семантику любой информации.

Здесь, как и в случае с вопросом о дискретности или непре­рывности информации, мы опять сталкиваемся с зыбкостью, расплывчатостью ряда понятий, казавшихся в мире вещей яс­ными и определенными. Сделанное выше утверждение не следу­ет понимать дословно, будто всякая информация свидетельству­ет только о том, как можно ее воспроизвести. Ни в коем слу­чае.   Представим   себе   множество   информации,   последовательно поступающих в универсальный автомат фон Неймана (см. ниже, главу 3). Пусть большинство из них непригодны для того, что­бы включить механизм их воспроизведения, и по мере старения их носителей со временем погибнут. Лишь та информация, ко­торая в данной системе и в данном пространстве режимов ока­жется обладающей такой семантикой, которая прямо или кос­венно пригодна для включения реплицирующего режима, ока­жется воспроизведенной в виде одной или нескольких копий, и ее существование продлится постольку, поскольку ее воспроиз­ведение будет опережать гибель ее носителей. Это не означает, что семантика других, погибающих, информации была иной природы, просто она не соответствовала в этом, решающем для продления существования информации, смысле тем услови­ям, в которых она оказалась; в другой ситуации результат мог бы быть совершенно иным. Поэтому по отношению к тем ус­ловиям, в которых информация регулярно подвергается воспро­изведению, утверждение о том, что сущность семантики инфор­мации есть способ и условия ее воспроизведения, приобретает оттенок тривиальности. Однако отнюдь не тривиально утвер­ждение, что эволюция семантики всегда и неизбежно направлена в эту и только в эту сторону, утверждение, которое, по суще­ству, будет следствием рассмотрения закономерностей динамики информации (глава 6).

В заключение этой главы можно сказать следующее. Именно семантика информации обусловливает специфику оператора и тем самым того целенаправленного действия, которое данный оператор может осуществить. Но при этом природа целенаправ­ленного действия всегда и неизбежно такова, что его осуществ­ление должно прямо или косвенно повышать вероятность воспроизведения кодирующей его информации. Именно в этом смысле семантика информации всегда представляет собой отра­жение тех условий, которые необходимы и достаточны для ее (информации) воспроизведения.

Тут уместно напомнить, что принцип самоорганизации мате­рии основан на кооперировании элементов в систему, в которой свойства ее в целом будут отличны от суммы свойств ее элементов. Флуктуации в открытых системах и дарвиновский от­бор помогут найти вариант, свойства которого позволят повы­сить выживаемость информационной системы или эффективность использования внешней среды. Из этого можно заключить, что целенаправленность на выживание является принципиальным свойством любой самоорганизующейся системы.

Таким образом, полезность свойство информации содейст­вовать осуществлению в определенном месте и в определенное время некоторого события, которое естественным путем там не произошло. Когда же говорят об истинности информации, то имеют в виду адекватность отражения данной информацией той или иной уже существующей ситуации. Однако единственным критерием такой адекватности может служить только успеш­ность осуществления в этой ситуации какого-либо целенаправ­ленного действия. Таким образом, если полезность – как бы потенциальное свойство информации, то ее истинность выявляется в ходе реализации этого ее свойства[4].

Так мы подошли к одному из классических гносеологических утверждений, согласно которому критерием истины является практика, т.е. реальная вещественная деятельность. При этом из полипотентности информации следует как возможность сущест­вования большого числа в равной мере истинных, но не совпа­дающих друг с другом информации, так и возможность града­ций степени истинности, а также ее относительность, т.е. зависимость от ситуации и цели.

Рассмотрим теперь случай, когда целью является трансляция самой информации, то, что в явном или неявном виде предпо­лагается семантикой любой информации. В таком случае в роли субъекта будет выступать эта информация, а ее истинность ока­жется условием ее собственного успешного существования. Здесь практика (т.е. осуществление целенаправленного действия) будет уже не только критерием истинности, но и критерием жизнеспособно­сти информации. Таким образом, мы пришли к интересному и отнюдь не тривиальному выводу, что жизнеспособность информа­ции обусловливается в конечном счете ее истинностью.

Истинность информации необходимое, но еще не достаточ­ное условие ее жизнеспособности. Если какая-либо информация никому не нужна и никем не используется, то истинность ее просто не сможет быть выявлена. Такая информация обречена на гибель не ввиду ошибочности, а из-за ее ненужности. Следовательно, для обеспечения жизнеспособности информации требу­ется не только ее истинность, но и ее нужность, ее полезность, т.е. гармония объективного и субъективного аспектов информа­ции, отражаемых этими терминами.

Полипотентность информации

«Ничто не возникает в теле для того, чтобы мы могли вос­пользоваться этим: напротив, тому, что возникло, находится применение», писал Тит Лукреций Кар [1] около двух тысяч лет тому назад. Это высказывание как нельзя лучше отражает то свойство информации, которое мы назвали полипотентностью [2]. Проявляется полипотентность в том, что оператор, представляющий собой продукт реализации семантики данной информации, может быть использован для осуществления самых разных целенаправленных действий, т.е. как для достижения разных целей в данном пространстве режимов, так и для дос­тижения одинаковых или разных целей в разных пространствах режимов, или в разных ситуациях. Так, одним и тем же молот­ком можно вбить гвоздь, разбить стекло и проломить голову.

Свойство полипотентности, которое означает, что одна и та же информация может быть использована для решения самых разных задач, легче проиллюстрировать, чем доказать, поэто­му его следует рассматривать как аксиому. Свойство полипо­тентности не отражает семантическую неоднородность информа­ции семантика любой информации всегда совершенно опреде­ленно и однозначно отображается в операторе. Полипотентность не означает также, что на основании одной и той же информа­ции могут быть созданы несколько разных операторов, такое представление коренным образом противоречит определению информации, приведенному выше (см. главу 1). Все это следует учитывать, обсуждая полипотентность информации.

Из свойства полипотентности следует два вывода, имеющих кардинальное значение для общей теории информации. Просле­дим эти выводы подробнее, ибо ниже нам неоднократно при­дется к ним обращаться.

Вывод первый. Располагая некоторой информацией или соз­данным на ее основе оператором и даже зная, для достижения какой цели эти информация и оператор предназначались, невозможно перечислить все ситуации и цели, для достижения ко­торых с той или иной вероятностью они могут оказаться при­годными. Множество комбинаций «ситуация-цель» можно счи­тать бесконечным, как и то подмножество, в пределах которого данную   информацию   можно   использовать   для   осуществления целенаправленных действий. Если семантику рассматривать как сущность информации, а результат целенаправленного действия как проявление этой сущности в данных условиях, то полипотентность будет естественным следствием зависимости этого проявления от условий, т.е. от ситуации и цели. Хорошо из­вестно, что одна и та же сущность может обусловливать мно­жество разных свойств.

Таким образом, любая информация и оператор, на ней осно­ванный, всегда могут получить априори не предполагавшиеся применения. Такое непредсказуемое заранее использование информации может подчас оказаться даже более эффективным и ценным, нежели то, для которого она первоначально предназна­чалась. В математике подобную ситуацию античные мыслители называли поризмом [13].

Вывод второй. Основываясь на свойстве полипотентности, можно утверждать, что для достижения одной и той же цели в данной ситуации с тем или иным эффектом может быть использовано множество разных информации и основанных на них операторов. Это множество всегда будет открытым, так как априори невозможно перечислить все существующие и все воз­можные информации, а тем более предугадать, какова будет эффективность их использования в некоторой ситуации.

Принципиальная невозможность перечислить все ситуации и цели, где может получить применение данная информация, а также перечислить все информации, которые могут получить применение для достижения данной цели даже в данной опреде­ленной ситуации, и тем более невозможность предугадать по­следствия этих применений это характернейшая особенность мира, где царствует информация. С другой стороны, свойство полипотентности вернейший залог жизнеспособности инфор­мации, которая не только сама подвергается постоянной измен­чивости, но и, будучи использована для осуществления целена­правленных действий, всегда и неизбежно вызывает непредвиди­мые изменения самого пространства режимов. Как мы увидим ниже, свойство полипотентности, наряду с изменчивостью, игра­ет важнейшую роль в эволюции информации.

Ценность информации

Помимо количества информации, измерять и выражать в цифрах можно и такое ее свойство, как ценность. В основе оп­ределения количества информации, как мы помним, лежат ее фиксируемость и инвариантность, а также «правило Шеннона», задающее емкость информационной тары. В основе определения ценности информации лежат такие ее свойства, как действен­ность и полипотентность, а также предложенный А. А. Харкевичем [14] способ исчисления ценности через приращение вероят­ности достижения той цели, для чего данная информация ис­пользуется. Приращения вероятности, однако, могут быть рас­считаны по-разному, и нам предстоит сделать выбор между возможными вариантами.

Если, согласно определению целенаправленного действия (см. [9]), через Р обозначить осуществление события цели в данном про­странстве режимов при использовании данной информации, а через р − спонтанное осуществление этого же события, то «при­ращение вероятности достижения цели» можно выразить и как Р-р, и как Р/р, и как log(P/p). Учитывая, что Р и р могут из­меняться от 0 до 1, мы увидим, что в первом случае ценность информации С может варьировать в пределах от плюс 1 до минус 1, во втором – от нуля до бесконечности, а в третьем – от минус бесконечности до плюс бесконечности. Исходя из удобства дальнейшего изложения, примем такой способ исчисле­ния ценности информации, чтобы ее величина изменялась от 0 до плюс 1. Для этого ценность можно выразить через отношение

                         (15)

 Казалось бы, этого же интервала изменчивости С можно достигнуть, положив Р < р и выражая С = Р-р или С = Р. В первом из этих случаев, однако, при приближении р к Р величина С будет стремиться к 0, даже если р = 1 и, следовательно, далее возрастать вообще не может. Во втором же случае ниж­нее значение С будет определяться величиной Р, а не свойствами информации.

Против определения (15) ценности информации можно возра­зить, что она не принимает отрицательных значений, т.е. не учитывает ситуацию с дезинформацией, когда Р <р. Но такая ситуация может возникнуть лишь в двух случаях. Один из них это когда объект, поставляющий или использующий инфор­мацию, стремится уменьшить вероятность осуществления неко­торого события. Тогда цель для него неосуществление Z, спонтанная вероятность чего p' = 1-p, и в этом случае Р, кото­рое меньше, чем р, будет превышать значение р', и, следова­тельно, требование С ≥ 0 будет соблюдено. Второй случай это ошибочное использование неподходящей информации, что тре­бует коррекции, а не логического анализа. Ситуация с «созна­тельным обманом» целиком включается в первый случай.

Обосновав таким образом избранную нами меру ценности инфор­мации, рассмотрим более внимательно содержание этого понятия.

Во-первых, и это чрезвычайно важно, можно утверждать, что в отличие от количества ценность информации невозможно за­дать одним единственным числом. Ценность каждой информа­ции имеет определенное значение лишь по отношению к неко­торой данной ситуации и данной цели. Из свойства же полипотентности следует, что по отношению к разным парам «ситуация-цель» ценность любой информации может варьировать в самых широких пределах, от 0 до 1. Тогда разные информации, следовательно, различаются не единичными значениями их ценности, а распределением этих величин по множествам ситуаций и целей, а ценность некоторой данной информации может быть полностью задана только в форме такого распределения. Распределение это будет представлено множеством точек, а не не­прерывной поверхностью, так как множества ситуаций и целей всегда будут оставаться открытыми. Следовательно, мы никогда не сможем иметь исчерпывающие сведения о ценности какой-либо информации, сколь бы ни представлялась она ничтож­ной, всегда остается надежда, что могут существовать такие си­туации и цели, где эта ценность близка к максимальной, т.е. к 1.

Посмотрим теперь, как ценность информации может быть связана с ее количеством. Очевидно, что этот вопрос может иметь определенный ответ тоже лишь по отношению к определенной паре «ситуация-цель», причем для разных информации такие ответы могут быть разными. В общем же виде ответ на этот вопрос можно представить себе как множество точек в системе координат (С, В), которое будет иметь определенное расположение только по отношению к данной паре «ситуация-цель» или в данном «информационном поле» (рис. 1).

Будем рассуждать следующим образом. Примем, что чем сложнее преобразование (12), описывающее целенаправленное действие, т.е. чем больше «шагов» (или операций) требуется для осуществления события цели в данной ситуации, тем большее суммарное количество информации должно быть использовано для его осуществления. Отсюда следует, что хотя в общем слу­чае С не зависит от В, для каждого конкретного информацион­ного поля должна существовать такая область значений С, ко­торые могут быть достигнуты только при В, равных или пре­вышающих некоторую критическую величину. Зависимость от В максимально возможных (для данных В) значений ценности С для любого информационного поля будет описываться кривой, монотонно возрастающей от 0 до 1. Эта кривая разделит дан­ное информационное поле на две зоны: «пустую», расположен­ную слева, и «заселенную», расположенную справа, где распола­гаются значения ценностей информации, в той или иной степе­ни   пригодных   для   осуществления   данного   целенаправленного действия (т.е. для которых 0<С<1). Очевидно, что разные значения С для информации, имеющих одно и то же количест­во В, будут обусловлены различиями в их семантике.

Существование зависимости, описываемой на рис. 1 кривой С(В), позволяет поставить вопрос о формах связей между степе­нью сложности целенаправленного действия, с одной стороны, и спецификой оператора, с другой, а также между структурными особеннос­тями оператора и количе­ством кодирующей его информации. Ниже мы обсудим эти вопросы, хо­тя окончательное их ре­шение вряд ли получим. Сейчас же ограничимся предположением, которое выглядит   довольно   правдоподобно. Допустим, что количество информации В определяет степень слож­ности оператора незави­симо от специфики его устройства, обусловливаемой семанти­кой. Другими словами, чем больше количество информации В, необходимой для построения данного оператора, тем сложнее он устроен.

 

 

 

 

 

 

 

 

Рис. 1. Схема, показывающая зависи­мость ценности информации С от ее количества В.

Эффективность информации

Введем теперь понятие «эффективность информации» [2], ко­торую определим как

                                      (16)

Очевидно, что, как и в случае с ценностью, эффективность любой информации может быть полностью задана только в форме распределения на множестве информационных полей. Для каждого информационного поля должна существовать кривая А(В), имеющая один максимум и две (левую и правую) нисхо­дящие ветви, стремящиеся к нулю (рис. 2). Такова форма кри­вой, под которой располагаются значения эффективности ин­формации, «обитающих» в данном информационном поле. Эта зона «заселена» информациями, пригодными для достижения соответствующей  цели в  данной  ситуации.  Так  как  форма  этой зоны  имеет принципиальное значение для  проблемы  динамики информации, рассмотрим ее более внимательно.


Можно утверждать, что для всех возможных информационных по­лей «кривая эффективности» А(В) обязательно имеет максимум и притом только один. Это позво­ляет для каждого инфор­мационного поля выде­лить информацию, для которой А = Аmax. Будем называть оптимальной как такую информацию, так и соответствующее ей значение В. Это позволяет утверждать, что инфор­мация, количество кото­рой меньше или больше Bopt, в данном информационном поле оптималь­ной быть не может.

 

Рис. 2. Схема зависимости Эффективности информации А от ее количества В

Еще раз о бренности информации и ее изменчивости

Как уже отмечалось, свойство бренности информации обуслов­ливается материальностью, – а следовательно, и бренностью ее носителей. Следовательно, бренность разных информации опреде­ляется только и исключительно свойствами тех носителей (а также их окружения), которые были использованы для их запи­сей и хранения. Соответственно бренность одной и той же ин­формации, но зафиксированной на разных носителях, может сильно различаться: так, носители, с которых считывается ин­формация, могут иметь короткий период полужизни, а исполь­зуемые для ее хранения очень длинный.

Исчезновение информации, благодаря ее бренности, может быть описано «кривыми отмирания», параметры которых будут определяться свойствами носителей.

Условием неограниченно-длительного существования инфор­мации из-за ее бренности является только периодическая ее ре­пликация или, точнее, требование, чтобы скорость репликации была не меньше (а точнее больше) скорости ее деградации.

Из последнего заключения можно сделать интересный вывод. Если принять, что скорость репликации одного и того же количества информации не зависит от ее семантики и в среднем есть величина постоянная, то условием длительного существования информации будет уменьшение бренности носителей с возрастани­ем количества зафиксированной в них информации. Носители вместе с компонентами информационных систем, обеспечивающи­ми их сохранность, можно характеризовать степенью надежности. Тогда можно сформулировать такое утверждение: надежность но­сителей информации должна возрастать с увеличением их инфор­мационной емкости (что может происходить как монотонно, так и ступенчато). Нетрудно видеть, что это утверждение связывает количество информации с требованиями к физическим свойствам носителей, используемых для ее фиксации.

И еще одно следствие из бренности информации. Исчезать данная информация может двояко разрушаясь и изменяясь. Во втором случае каждый акт изменчивости будет, с одной сторо­ны, актом гибели старой информации, а с другой актом рож­дения новой, чем-то отличающейся от исходной. Можно сфор­мулировать положение, согласно которому изменение инфор­мации совершается только по одному из трех способов: замена одних букв на другие без изменения их общего числа; выпа­дение одной или нескольких букв; вставка одной или несколь­ких букв. Такие изменения могут иметь разные механизмы, в зависимости от специфики информационных систем. Вклад разных видов изменчивости и разных ее механизмов в общий процесс изменения информации также зависит от специфики информа­ционных систем. Однако, так как специфика информационных систем сама определенным образом связана с количеством ко­дирующей их информации, можно утверждать, что характер и механизмы информационной изменчивости должны закономер­но изменяться с ростом количества информации.

Изменяться информация может, будучи в двух разных со­стояниях и в «покоящемся» состоянии, и в состоянии репли­кации. В первом случае причиной изменчивости могут быть различные повреждения ее носителей, а во втором, помимо это­го, и «ошибки репликации». Таким образом, репликация играет в жизни информации двоякую роль: и как способ продления ее существования, и как фактор, повышающий ее изменчивость, с по­следующим продлением существования уже новой информации.

То обстоятельство, что без репликации достаточно продолжитель­ное существование информации невозможно, а с другой стороны, тот факт, что редупликация информации в результате редупликации со­держащего ее носителя может осуществиться лишь в ходе соответст­вующего целенаправленного действия, означает, что любая инфор­мация всегда и прежде всего есть информация о способе своей ре­дупликации в том или ином пространстве режимов. Следовательно, новые видоизмененные информации будут жизнеспособными тогда и только тогда, если и когда эти изменения относятся к способам редупликации и/или к условиям, где она может осуществляться. Любые другие изменения семантики информации нежизнеспособ­ны и рано или поздно будут элиминированы.

Учитывая вышесказанное, можно сформулировать следующее утверждение. Любая информация неизбежно обречена на гибель. Бесконечно долго может существовать лишь последовательность вновь и вновь возникающих информации с изменяющейся се­мантикой, определяющей или способ редупликации этой инфор­мации, или те условия, при которых такая редупликация может осуществляться.

Полезность и истинность информации

Термины «полезность» и «истинность» обычно применяют по отношению к тому виду информации, которую мы назвали логичес­кой, но в равной мере они приложимы и к поведенческой информа­ции, и к генетической. Посмотрим, какие особенности информа­ции эти термины отображают и как они связаны между собой.

Полезность информации предполагает, что она кому-нибудь нужна, может быть для чего-то использована. Это «что-то», ко­нечно, есть целенаправленное действие. Полезность информации, следовательно, проявляется в возможности ее использования для достижения той или иной цели. Из свойства полипотентности следует, что для чего-нибудь полезной может оказаться любая информация. Это делает вполне оправданным добычу и хране­ние информации про запас; авось для чего-нибудь пригодится... Любопытство, присущее не только человеку, но и многим дру­гим животным, это эмоция, удовлетворение которой и обеспе­чивает «запасание информации впрок».

Полезность информации предполагает существование некото­рого объекта, который может этой информацией воспользовать­ся. Очевидно, что именно по отношению к такому объекту име­ет смысл понятие «цель»: ведь то, что для такого объекта явля­ется целью его деятельности, для других может быть совершен­но не нужным. Информация же, точнее, ее полезность, связана не с выбором цели, а с ее достижением: на выбор конечной це­ли или на целеполагание сама по себе информация влиять не может. Таким образом, можно сказать, что полезность инфор­мации определяется возможностью ее использовать для дости­жения какой-либо цели. Из полипотентности следует, что для чего-нибудь полезной может быть любая информация, хотя это далеко не всегда очевидно.

Операции над информацией

Как отмечал еще Л. Н. Серавин [9], информация, не будучи «ни материей, ни энергией», не подчиняется законам сохранения. Так, реализация или трансляция информации не обязательно сопровождается исчезновением ее исходного образца, а в случае гибели информация может просто исчезать, не превращаясь в другую информацию. Такое неподчинение законам сохранения ярко проявляется и при осуществлении над информацией двух операций суммирования и деления. Это является следствием того, что информация характеризует всю систему в целом. Сле­дует подчеркнуть, что информация поддается только этим двум операциям, ибо никаких других операций над ней производить невозможно.

Будем называть суммированием объединение двух или бо­лее записей информации в единый текст, а делением раз­бивку какого-либо текста на два или более фрагмента. Очевидно, что и то, и другое предполагает, прежде всего, осуще­ствимость соответствующих операций над носителями инфор­мации и, следовательно, идентичность природы этих носителей. Другими словами, можно утверждать, что прежде чем осуществлять суммирование нескольких информации, их следу­ет перевести в единую систему записи. Очевидно также, что как при суммировании, так и при делении информации общая емкость тары должна оставаться постоянной, т.е. Н1 + Н2 + ... = 1 + Н2 + …).Аддитивность емкости тары, однако, отнюдь не означает аддитивности количества самой информации. Во­прос, следовательно, можно сформулировать так: что происхо­дит при суммировании или делении информации с их количеством, ценностью, эффективностью и семантикой, с их полез­ностью и истинностью?

Очевидно, что при суммировании общее количество инфор­мации может заключаться в интервале от общей емкости ин­формационной тары до нуля, аддитивность же самой суммированной информации может встречаться лишь как частный случай. Особый интерес представляет ситуация, когда суммар­ная информация оказывается большей, чем сумма информации, содержащихся в слагаемых, т.е. когда как бы возникает некая добавочная информация. На самом деле, однако, никакого возникновения информации «из ничего» не происходит, про­сто информация, не будучи «ни материей, ни энергией», не подчиняется принципу аддитивности, в отличие от емкости ее носителей. Крайний вариант этой ситуации, когда в сумми­руемых компонентах информации вообще не содержалось, т.е. ни в одном  из  них  ее не было, а в  сумме она появляется, – этот вариант относится уже к проблеме возникновения ин­формации и для своего рассмотрения требует, прежде всего, умения отличать информацию, содержащуюся в сообщении, от пустой последовательности букв. При суммировании возможно также исчезновение информации, хотя в суммированных фраг­ментах она содержалась в достаточном количестве.

Сходные ситуации могут наблюдаться и при делении како­го-либо сообщения, содержащего информацию, на фрагменты: количество информации в каждом фрагменте может оказаться равным любой величине, заключенной между емкостью соот­ветствующей информационной тары и нулем. Сумма информа­ции, содержащихся в фрагментах, может быть большей, а мо­жет быть и меньшей, вплоть до нуля, по сравнению с количе­ством информации, содержащейся в исходных сообщениях.

Таким образом, и суммирование, и деление информации может приводить как к ее уменьшению, вплоть до полного исчезновения, так и к увеличению ее количества, вплоть до полного заполнения ею информационной тары. Обе эти опе­рации, следовательно, могут рассматриваться как возможные пути возникновения дополнительной информации.

Очевидно, что к ценности и эффективности информации принцип аддитивности вообще неприложим, можно говорить лишь об изменениях форм распределений, описывающих то и другое. На этот счет можно высказать лишь одно утвержде­ние: никаких предсказаний здесь априори делать нельзя, и ка­ждый конкретный случай требует своего рассмотрения. Это же полностью относится к семантике, полезности и истинности информации все эти характеристики, как и рассмотренные выше, при суммировании или делении информации могут из­меняться во всем характерном для них диапазоне значений, вне какой бы то ни было зависимости одна от другой. Это еще раз подтверждает сделанное выше утверждение, что суммирование и деление, т.е. операции над информацией, один из возможных путей возникновения новой информации. Апри­орная непредсказуемость характеристик новой информации, образующейся при суммировании или делении, играет важную роль в ее эволюции.

Классификация информации

Приступая к проблеме классификации информации, прежде всего, по-видимому, следует раз и навсегда отказаться от попы­ток выделить элементарные единицы информации: понятие дискретности  или  непрерывности  к  информации,  скорее всего, вообще неприложимо. Из всего сказанного выше следует, что ин­формацию можно классифицировать лишь по особенностям проявления тех или иных ее свойств, и в первую очередь ее фиксируемости и действенности.

По фиксируемости или, точнее, в соответствии с природой носителей мы различали уже три вида информации генетиче­скую, «записанную» в молекулах нуклеиновых кислот; поведен­ческую, фиксируемую генетическими компонентами нервных клеток, и логическую, проявляющую себя в форме человеческого знания или в форме идей, носителем которых помимо нервных клеток служит язык, т.е. устная или письменная речь. Количественно каждая из этих информации может быть ограничена только сверху: никакой носитель не может содержать больше информации, нежели позволяет его емкость. Поэтому верхней границей генетической информации служит максимально-возмож­ное содержание в клетках ДНК, поведенческой максимальное содержание в одном организме нервных клеток, а логической – максимально возможная суммарная емкость носителей информа­ции тех технических систем, которые используются человеком для ее записи и хранения. Каждый из этих трех видов инфор­мации может существовать в форме независимых дискретных субъединиц: хромосомы в живой клетке, нервная система того или иного животного, отдельные экземпляры книг в библиотеке. Все это свидетельствует о возможности разделить тот или иной вид информации на отдельные фрагменты, что, однако, отнюдь не отражает дискретность самой информации.

По своей действенности информация, относящаяся к каждому из этих трех видов, может быть как завершенной, так и незавер­шенной. Это, конечно, также не свидетельствует ни о ее дискрет­ности, ни о ее континуальности. Завершенной будем называть та­кую информацию, которой достаточно для построения какого-либо оператора. Незавершенная это информация, на основе ко­торой построить целостный оператор невозможно; незавершенная информация, следовательно, может кодировать лишь какой-либо фрагмент оператора или какой-либо этап его построения. Услов­ность такой классификации, однако, связана с тем, что никакая информация не может сама построить кодируемый ею оператор, для этого она должна быть включена в соответствующую ин­формационную систему. Поэтому в одной информационной сис­теме какая-либо информация может проявлять себя как завершен­ная, а в другой как незавершенная, и далеко не всегда просто решить, является ли это отражением особенностей самой инфор­мации или воспринявшей ее информационной системы.

Необходимость для использования информации адекватных ей информационных   систем   предполагает  возможность   классификации и по этому признаку, т.е. по особенностям таких информа­ционных систем. Однако этот подход к классификации информа­ции предполагает достаточные знания о самих информационных системах, о чем речь пойдет только в следующей главе.

Наконец, остается еще одна возможность классификации ин­формации через специфику кодируемых ею операторов. Это, пожалуй, будет наиболее объективный подход к классификации информации, так как он включает в себя и все другие выше-рассмотренные подходы. Реализован этот подход будет ниже, при рассмотрении проблем, связанных с возникновением и эво­люцией информации. Забегая вперед, можно лишь сказать, что результатом такой классификации будут все те же три вида ин­формации, которые мы выделили в самом начале этой работы.

Информация и объекты материального мира

Теперь, когда мы достаточно знаем о свойствах и особенно­стях информации, рассмотрим взаимоотношения между инфор­мацией и теми объектами окружающего нас мира, которые мы называем «материальными» или «физическими», т.е. телами и потоками энергии. Напомним, что между этими объектами и информацией существует та принципиальная разница, что все материальные объекты могут восприниматься нашими органами чувств (либо непосредственно, либо с помощью специальных приборов), информация же сама по себе органами чувств не воспринимается, а «считывается» лишь соответствующим блоком ее собственной информационной системы.

Нетрудно видеть, что между материальными объектами на­шего мира и информацией могут быть три вида отношений, благодаря чему эти объекты можно подразделить на три класса. Класс А это объекты, являющиеся носителями информации. Класс Б объекты, о которых имеется или может быть создана информация. Класс В объекты, для создания которых требо­валась или требуется информация. Такая классификация условна в том смысле, что объекты из каждого класса могут, вообще говоря, относиться (и, как правило, относятся) еще к одному или двум другим классам. В то же время эта классификация в каждом данном отношении совершенно определенна. Действи­тельно, никакая информация не может существовать, не будучи зафиксирована в каком-либо из объектов класса А. Объекты класса Б являются первичными по отношению к той информа­ции, которая может быть о них создана, но существуют независимо от какой бы то ни было информации. Объекты класса В являются   вторичными   по   отношению   к   описывающей   их   информации и не могут возникать без ее участия, соответст­вующая же информация в своем существовании от них не зави­сит.

Связь объектов всех трех классов с информацией можно рас­сматривать в трех аспектах: в аспекте первичности (о чем уже шла речь), в аспекте количества и в аспекте качества или семантики.

Действительно, вполне правомочно поставить вопрос, как связана степень упорядоченности или сложности физических объектов с той информацией, которая может быть в них зафик­сирована; может быть о них создана; требуется для создания таких объектов. Особый интерес при этом приобретает ситуа­ция, когда к классу Б относятся объекты, принадлежащие к классу В, т.е. когда искусственно созданные объекты служат для того, чтобы воссоздать информацию, которая была использова­на при их построении.

Прежде всего посмотрим, как связаны с информацией объек­ты класса А ее носители. Первое утверждение относительно объектов класса А можно сформулировать так: физические свойства носителя непосредственно определяют его информаци­онную емкость (или верхнюю границу количества той информа­ции, которую он может содержать).

Второе утверждение непосредственно следует из способа фик­сации информации на носителях и состоит в том, что каждый данный носитель в пределах данного количества может содер­жать информацию любой семантики. Это другая сторона свойства инвариантности информации по отношению к физиче­ским носителям (см. глава 2. «Инвариантность информации по отношению к носителям»).

Третье утверждение непосредственно относится к продолжи­тельности жизни информации, зафиксированной на данном но­сителе, и рассматривалось в разделе о бренности информации (глава 2. «Бренность информации»). Смысл его состоит в том, что продолжительность жизни каждой данной информации (точ­нее, данного ее экземпляра) определяется только физическими особенностями носителя и внешними по отношению к нему ус­ловиями. Здесь, однако, есть один аспект, заслуживающий осо­бого внимания: чем больше количество данной информации, тем большим по размерам (или протяженности) должен быть ее носитель. Это, по крайней мере, в некоторых случаях может влечь за собой большую уязвимость (или хрупкость) носителя и тем самым влиять на степень бренности содержащейся в нем информации. Но и в этом случае увеличение бренности инфор­мации с ростом ее количества будет определяться свойствами носителя, требующегося для ее записи, а не самой информацией как таковой.

Таким образом, физические особенности объектов класса А -носителей информации определяют то количество информа­ции, которое может в них содержаться, и ее бренность. Первое обстоятельство объясняет, почему для измерения количества ин­формации можно использовать величины, характеризующие именно те свойства таких объектов, которые допускают их ис­пользование в качестве носителей информации. Мы уже видели (см. глава 2. «Фиксируемость информации. Ее носители»), что в качестве таковых могут выступать любые физические объекты формальных ограничений здесь нет.

Связь с информацией объектов класса Б издавна анализиру­ется той областью философии, которую называют «теорией по­знания». В самом общем виде эту связь можно выразить так: объекты класса Б полностью и однозначно определяют количе­ство и семантику той информации, которая может быть о них создана. Это утверждение, однако, внутренне порочно: ведь мы знаем о разных объектах лишь то, что мы о них знаем, а это и есть созданная о них информация. Мы должны, следователь­но, допустить существование некоторого множества свойств, присущих какому-либо объекту, которые нам еще не известны. В этом случае можно утверждать, что создаваемая о подобных объектах информация асимптотически стремится к этому множе­ству. Но мы никогда не сможем узнать, насколько она к нему приблизилась! Решение этого вопроса тесно связано с приняти­ем посылки либо о неисчерпаемости, либо об исчерпаемости познания, т.е. посылки о существовании или несуществовании абсолютной истины. Приняв посылку о неисчерпаемости позна­ния и, что равносильно этому, об относительности всех истин, мы придем к выводу, что о любом объекте может быть создано бесконечное количество семантически определенной информации, что бессмысленно. Более эвристичной выглядит посылка об исчерпаемости познания любого объекта и, следовательно, о су­ществовании абсолютных истин, посылка, хорошо отражаю­щая системный подход к анализу объектов материального мира. Полной информацией о том или ином объекте можно называть такую информацию, располагая которой можно этот объект воссоздать в принципе неограниченное число раз. Следователь­но, полная информация и есть тот предел, к которому стремит­ся как количественно, так и семантически информация, созда­ваемая об объектах класса Б. Алгоритмическое представление об информации [15], следовательно, предполагает исчерпаемость познания любого конкретного физического (или материального) объекта.

Теперь нам остается рассмотреть связь с информацией объ­ектов класса В так  называемых  искусственных  объектов,  существование которых определяется кодирующей их информаци­ей. Утверждение, согласно которому сложность строения и спе­цифика таких объектов однозначно определяется количеством и семантикой этой информации, будет верным лишь отчасти, ибо большую роль здесь должно играть то устройство, которое реализует информацию в данный объект. Следовательно, такой объект всегда и неизбежно структурой своей отображает не­сколько большую по количеству и семантически более богатую информацию, нежели та, которая была использована для его создания или, точнее, которая представляет собой алгоритм его построения. Это позволяет высказывать утверждение, что объекты класса Б определяются информацией лишь в той мере, в какой они соответствуют цели, для которой их создают, ибо такие объекты, являющиеся искусственными, создаются все­гда и только с какой либо целью. Это же приводит нас к во­просу о существенных свойствах таких объектов.

Возможность создания полной информации о естественных объектах означает принципиальную возможность их искусственно­го построения. Такую ситуацию по отношению к нашей Вселен­ной рассматривал С. Лем в книге «Сумма технологий» [16]. Феноменологическая неразличимость искусственного и естественного миров, однако, не означает их принципиальной неразличимости: искусственное создание физических объектов предполагает предсуществование отображающей их информации, а естественно воз­никающие объекты далеко не всегда в этом нуждаются.

Таковы в основных чертах соотношения между информацией и объектами материального мира.

Литература

1.     Лукреций Кар Т. О природе вещй. М., Изд. АН СССР, т. 1, 1946.

2.     Корогодин В. И. Биофизика, 1983, т. 28, в.1, С. 171-178.

3.     Моисеев Н. Н. Человек, среда, общество. М., «Наука», 1982.

4.     Моисеев Н. Н. Алгоритмы развития. М.,  «Наука»,  1987.

5.     Винер Н. Кибернетика, или управление и связь в животном и ма­шине. М.,  Советское радио, 1968.

6.     Кордюм В. А. Эволюция и биосфера. Киев, «Наукова думка»,  1982.

7.     Хесин Р. Б. Непостоянство генома. М.,  «Наука»,  1984.

8.     Эйген М., Шустер П. Гиперцикл. М., «Мир»,  1982.

9.     Серавин Л. Н. Теория информации с точки зрения биолога. Л.,Изд. Лен.унив., 1973.

10.   Дубровский Д. И. Информация, сознание, мозг. М., «Высшая  школа», 1980.

11.   Корогодин В. И. Информация и феномен жизни. Пущино, 1991.

12.   Севастьянов Б. А. Ветвящиеся процессы. М.,  «Наука»,  1971

13.    Грязное Б. С. Природа, 1974, №4, С. 60-69.

14.    Харкевич А. А. О ценности информации.  В кн.: Проблемы киберне­тики, в. 4, М., Физматгиз, 1960, С. 53.

15.    Колмогоров А. Н.   Теория   информации   и   теория   алгоритмов.   М., «Наука», 1987.

16.    Лем С. Сумма технологий. М., «Мир», 1968.

 

Глава третья

ИНФОРМАЦИОННЫЕ СИСТЕМЫ

Реализация информации. Операторы и информационные системы

Выше неоднократно упоминалось о связи информации с операторами и информационными системами. Рассмотрим эту проблему более внимательно.

Начнем с утверждения, что хотя информация – объект не материальный, операторы всегда и обязательно –  объекты ма­териальные, т.е. реальные физические тела, которые могут, и весьма существенно, влиять на ход событий в окружающем их реальном физическом мире. Этот факт позволяет нам выде­лить три вопроса и сосредоточить на них внимание: как про­исходит реализация информации в операторы? какими показа­телями можно характеризовать операторы? и как связаны осо­бенности информации с характеристиками кодируемых ею операторов?

Вопрос о реализации какой-либо информации в оператор предполагает, прежде всего, однозначное отображение опера­тора в этой информации, а также существование механизмов, реализующих это отображение. При рассмотрении этого во­проса мы будем опираться на работы А. Н. Колмогорова [1], посвященные определению понятия «информация» и проблеме отображения одного множества другими.

Действительно, любую информацию можно представить се­бе как некоторое множество знаков или символов, однозначно отображающее другое множество, в нашем случае  компоненты будущего оператора. Существует теорема, согласно кото­рой отображающее множество всегда менее сложно, нежели отображаемое (т.е. содержит меньшее число компонентов), но этот разрыв уменьшается по мере увеличения сложности ото­бражаемого множества, так что в конце концов «отобразить» суперсложное множество можно лишь одним путем  полно­стью его воспроизведя. Можно предположить, что с информа­цией и операторами дело обстоит иначе. Во-первых, сама ин­формация, по-видимому, относится к классу таких объектов, которые   невозможно   отобразить   более   простыми   объектами; во всяком случае, когда информация представлена в макси­мально-компактной форме, ее невозможно «записать» еще бо­лее компактно. Отсюда, кстати, следует, что информацию, не­зависимо от ее количества и семантики, невозможно отобра­зить иначе, как точно ее скопировав. Во-вторых, можно думать, что пары объектов «информация и кодируемый ею опе­ратор» относятся к такому классу, где степень сложности ото­бражаемого объекта возрастает тем быстрее, чем больше сложность объекта отображающего. Иными словами, слож­ность оператора возрастает значительно быстрее количества отображающей его информации, и с ростом количества коди­рующей информации разность между сложностью этой инфор­мации и соответствующих операторов не уменьшается, а все более возрастает. На примере живых организмов в этом легко убедиться, сопоставив зависимость массы организмов от коли­чества ДНК в гаплоидных наборах их хромосом. Не исключе­но, что этот феномен имеет прямое отношение к замечанию А. Н. Колмогорова, что даже при достаточно простой структу­ре отображающего множества программа его реализации мо­жет быть столь сложной, что полное ее осуществление прак­тически невозможно.

Вероятно, многие из отмеченных выше трудностей и проти­воречий легко разрешаются, если учитывать предельную си­туацию, когда отображение оператора в информации пред­ставляет собой не что иное, как программу его построения, заданную максимально компактным образом. Условность запи­си такой программы (т.е. ее запись знаками или символами) исключает непосредственное воспроизведение по ней операто­ра,  это становится возможным только благодаря специаль­ной разверстке такой программы во времени, осуществляемой специальным устройством той информационной системы, к ко­торой информация относится. Поэтому и точность реализации здесь может варьировать, – или, правильнее сказать, точность реализации будет определяться нормой реакции реализующего устройства на сопутствующие факторы. Именно в этом смысле информацию можно рассматривать как алгоритм для построе­ния оператора.

Мы уже неоднократно подчеркивали, что никакая инфор­мация неспособна самостоятельно индуцировать построение оператора, что, впрочем, непосредственно следует из немате­риальности ее природы. Информация может быть реализована в оператор только в своей информационной системе благодаря существованию считывающих и реализующих устройств. Именно считывающее устройство ставит в однозначное соот­ветствие  знаки   или   символы,   «заполненные»   информацией,   с теми или иными элементарными действиями, производимыми реализующим устройством над ресурсами, содержащимися в окружающей среде, что и приводит к созданию оператора. Это обстоятельство, между прочим, очень хорошо иллюстри­рует принципиальное значение последовательности считывания информации в ходе ее реализации.

Основные типы операторов мы уже упоминали. Это со­матические компоненты живых организмов, поведенческие ре­акции животных с развитой нервной системой, а в случае человеческих сообществ присущие им технологические ком­плексы. Помимо таких «завершенных» операторов, составляю­щих вместе с относящейся к ним информацией завершенные информационные системы, существует множество информации и операторов промежуточных, или, точнее, соподчиненных, типов, иерархии которых и представляют собой завершенные операторы. Такие субоператоры призваны выполнять целена­правленные действия, являющиеся фрагментами или отдельны­ми элементарными этапами завершенных целенаправленных действий, осуществляемых завершенными операторами. Степень соподчиненности операторов можно проследить в разных кон­кретных случаях только при рассмотрении всей системы в целом или хотя бы системы следующего после данного операто­ра более высокого ранга, но не рассматривая разные операто­ры изолированно от других, с ними сопряженных.

Таким образом, мы подошли к возможности дополнить наши представления об информационных системах, изложен­ные выше (см. главу 2), в двух важных аспектах: такие систе­мы должны включать в себя как считывающие и реализующие устройства, так и продукты их деятельности операторы. Собственно, мы могли бы называть «завершенным операто­ром» всю совокупность неинформационных компонентов ин­формационной системы, но это будет неверно, ибо она всегда содержит (хотя бы временно) считывающие и реализующие устройства, предшествующие по отношению к вновь создавае­мым на основе некоторой данной информации его компонен­там; даже если некоторые новые компоненты и будут просто повторять старые, это повторение окажется «молчащим», предназначенным только для следующего информационного цикла.

Иерархическое разделение информационных систем на ин­формационные, считывающее-реализующие и операторные суб­системы прекрасно иллюстрируется следующим обстоятельством. Информационные системы можно разбить на два боль­ших класса. Один из них это информационные системы 1-го рода, все три компонента которых настолько тесно соединены друг с другом, что представляют собой единое целое. Это живые организмы, от клеток до человека. Второй тип ин­формационные системы 2-го рода, где информация, считывающе-реализующие устройства и операторы могут существо­вать и существуют пространственно разобщенно друг от дру­га, хотя функционировать и развиваться способны лишь сово­купно. В наиболее завершенной форме это человеческие со­общества, где информация представлена в виде книг или дру­гих систем записи, в роли считывающих и реализующих устройств нередко выступают сами люди, а в качестве суперопе­раторов технологии.

Об иерархии в информационных системах

Б. Б. Кадомцев [2] в своей книге «Динамика и информация» (1997) указывает на иерархию в физических информационных системах. Он проводит следующие рассуждения.

Каждая открытая система имеет приток энергии Р и веще­ства М. Энергия должна поступать в систему в организован­ной форме, так что вместе с энергией и веществом в систему вводится негэнтропия (-Si). Из системы выводятся во внешнюю среду отходы в виде вещества М и возрастания энтропии внешних систем (-Se). Если система не имеет внутренней структуры, то она ведет себя как однородная система, напри­мер горная река.

В более сложных системах возможно расслоение на две тесно связанные подсистемы: динамическую и информацион­ную (управляющую). Структурные элементы, которые могут влиять на динамику системы сравнительно малыми возмуще­ниями, выделяются в структуру управления. Таким образом, сложные динамические системы расслаиваются на два уровня иерархии. Подсистема управления может откликаться на смы­словую часть приходящих сигналов и вырабатывать управ­ляющие сигналы в динамическую подсистему. Управляющий блок может иметь связь с несколькими динамическими подсис­темами. Управляющий, или информационный, блок может ис­пользовать негэнтропию, передаваемую из динамических под­систем, либо иметь свой источник, связанный с внешней сре­дой. В случае живых организмов негэнтропией является пища, а для получения информации используется, например, свет.

Б. Б. Кадомцев отмечает, что «для информационного пове­дения сложных физических систем более важной является структурная сложность и структурная иерархия, а не иерархия элементарных уровней (частицы, атомы,  молекулы, тела). Элементы информационного поведения появляются даже у микро­частиц в виде коллапсов волновых функций, а по мере укруп­нения и усложнения структур к ним добавляются неравновес­ные коллективные параметры порядка, играющие роль дина­мических переменных» (стр. 331).

Обратимся к живой клетке. Здесь впервые встречается обо­собленный генетический «управляющий» аппарат (геном клет­ки). Он реагирует на сигналы из внешней и внутриклеточной среды, связан через трансляцию (см. возникновение генетиче­ской информации) с аппаратом гетерокатализа, который обес­печивает построение динамического оператора. В «динамичес­ком блоке» используются вещество и энергия внешней среды. В схеме самовоспроизводящегося автомата фон Неймана, яв­ляющегося аналогом живых организмов, присутствуют управ­ляющий информационный блок и динамический, для построе­ния оператора использующий ресурсы внешней среды. Все со­циальные структуры и сельское хозяйство построены на тех же иерархических принципах.

Универсальный автомат фон Неймана

Информация, заключенная в своем носителе, сама по себе пассивна: она неспособна ни участвовать в целенаправленном действии, ни перейти на другой носитель, ни осуществить собственное копирование. Чтобы эти события, обеспечивающие само существование информации, стали возможны, требуется наличие специальных материальных объектов – устройств или «машин», которые «умеют» воспринимать или создавать ин­формацию, считывать ее, обеспечивать ее трансляцию с одно­го носителя на другой, ее копирование, создание кодируемого ею оператора, а также осуществление других действий, необ­ходимых как для выявления присущих информации свойств, так и для обеспечения ее дальнейшего существования. Отдель­ные операции, совершаемые посредством этих устройств с ин­формацией или при ее участии, можно назвать элементарными информационными актами, их совокупность информацион­ным процессом, а совокупность устройств, обеспечивающих осуществление такого процесса информационной системой. Очевидно, что вне информационной системы информация не в состоянии выявить ни одного своего свойства, кроме бренно­сти, но даже бренность информации здесь выступит не явно, а лишь как следствие разрушения ее носителей. Другими сло­вами,   вне   информационной   системы   не   только   информация обречена на диссипацию, но и само понятие «информация» утрачивает всякий смысл.

Очевидно, что все устройства, способные обеспечивать осуществление элементарных информационных актов, так же как и слагаемая ими информационная система, есть не что иное, как операторы, создаваемые на основе некоторой ин­формации, спонтанно они образовываться не могут. Возни­кает известный парадокс яйца и курицы: что первично, ин­формация или ее операторы? Попробуем выяснить, каким ми­нимумом свойств (или особенностей) должна обладать про­стейшая информационная система, способная обеспечить осуществление полного информационного цикла, от считывания информации до ее воспроизведения. Сделать это нам будет нетрудно ввиду прекрасной разработанности этого вопроса следует лишь обратиться к идеям Дж. фон Неймана, относя­щимся к самовоспроизводящимся автоматам [3].

В сентябре 1948 г. на симпозиуме «Механизмы мозга в по­ведении», состоявшемся в Калифорнийском технологическом институте, Дж. фон Нейман прочитал лекцию, которая называлась «Общая и логическая теория автоматов». Основной те­мой этой лекции был общий анализ структуры такого авто­мата, или, точнее, автомата такого уровня сложности, кото­рый позволял бы ему осуществлять самовоспроизведение. Фон Нейман показал, что такой автомат должен состоять из четы­рех блоков со следующими функциями (рис. 3).

 

 

 

 

 

 

 

 

 

 

 

Рис. 3. Блок-схема самовоспроизводящегося автомата фон Неймана. R - ресурсы, черпаемые из окружающей среды. Пояснения в тексте.

Блок А автоматическая фабрика по сбору сырья (R) и его переработке в продукт, соответствующий задаваемым извне инст­рукциям (Г). Блок Б аппарат, снимающий копии с таких инст­рукций. Блок В контролирующий аппарат, подключенный од­новременно к блокам А и Б: когда в блок В поступают инструк­ции, они сначала направляются в блок Б для снятия с них копий, а затем в блок А, где уже осуществляются соответствующие операции по изготовлению конечного продукта из исходного сы­рья. В случае, если таким «конечным продуктом» является дочер­ний автомат, он снабжается копией первоначальных инструкций, тогда как их оригинал остается в блоке В исходного автомата. Наконец, имеется еще блок Г, который представляет собой «запо­минающее устройство», содержащее полную запись инструкций, обеспечивающих производство блоком А конечного продукта, в том числе дочернего автомата (А+Б+В+Г). Фон Нейман показал, что для создания самовоспроизводящегося автомата структура та­кого типа является необходимым минимумом. Он предположил также, что такая структура присуща и живым организмам.

Заметим, и это хочется особенно подчеркнуть, что автомат фон Неймана можно рассматривать с двух точек зрения. Во-пер­вых, так же, как делал сам Дж. фон Нейман, анализируя принцип устройства самовоспроизводящейся технической системы. В этом аспекте инструкции или информация, содержащаяся в блоке В и используемая блоком А для изготовлении копии такого автомата, играет как бы служебную роль, подчиненную цели создания но­вых блоков А, Б, В и Г. Но можно весь автомат рассматривать и с другой позиции, когда все неинформационные компоненты его, т.е. блоки А, Б, В и Г, выступают в роли операторов по от­ношению к кодирующей их информации, а совокупность этих блоков, т.е. сам автомат, есть не что иное, как супероператор, обеспечивающий воспроизведение этой информации.

Дж. фон Нейман, по-видимому, не был знаком с работой Г. Меллера [4], опубликованной за четверть века до его выступле­ния, в которой живой организм рассматривался как устройство, обеспечивающее воспроизведение кодирующих его генетических структур. Если посмотреть на автомат фон Неймана с этой точки зрения, то его с полным правом можно интерпретировать как подобное же устройство, осуществляющее воспроизведение коди­рующей его информации. Поэтому-то автоматы фон Неймана и можно рассматривать как простейшие информационные системы. Термин «простейший» здесь используется в смысле «элементар­ный», чтобы подчеркнуть дальнейшую неделимость системы, спо­собной обеспечивать воспроизведение информации. Очевидно, что анализ строения и функционирования такой информационной системы следует проводить, постоянно имея в виду функциональную специфику отдельных блоков автомата фон Неймана и ха­рактер их взаимодействия друг с другом.

Однако это еще не все выводы, которые можно сделать из упомянутой работы Дж. фон Неймана. Используя идеи А. Тью­ринга [5], Дж. фон Нейман показал, что теоретически возможен универсальный автомат, т.е. механизм такой степени сложности, которой при наличии правильно заданных инструкций может выполнять операцию любого другого механизма. Иными слова­ми, на определенном этапе эволюции самовоспроизводящихся автоматов для выполнения все более сложных операций уже ис­чезает необходимость дальнейшего усложнения структуры самих автоматов. Для этого оказывается достаточным задавать все более подробные и сложные инструкции I. Эволюция автоматов уступает место эволюции информации.

Универсальный автомат фон Неймана может, конечно, и са­мовоспроизводиться. Для этого достаточно включить его в ка­честве блока А в описанную выше систему. Дж. фон Нейман считал, что именно потому, что логически возможен универ­сальный автомат, возможна и бесконечная биологическая эво­люция. Отпадает необходимость переделывать основные меха­низмы биосинтеза по мере перехода от простых организмов к более сложным. Необходимо только модифицировать и расши­рять генетические инструкции. Все, что было открыто нового об эволюции биологических систем после 1948 г., подтверждает правоту Дж. фон Неймана. Очевидно, что эволюцию информа­ционных систем от простейших к универсальным можно вполне трактовать как эволюцию природных автоматов фон Неймана.

Потенциальные и реальные носители информации

Выше мы коротко рассматривали те особенности физических объектов, которые позволяют им быть носителями информации (см. главу 2). Один из выводов, полученных нами, был тот, что в качестве носителя информации может выступать любое физиче­ское тело. Из сказанного в предыдущем разделе следует, однако, что реальный носитель информации должен отвечать еще двум, в дополнение к рассмотренным выше, требованиям: допускать воз­можность записи информации некоторым данным способом и до­пускать возможность считывания информации также заранее за­данным способом. Иными словами, реальный носитель информа­ции должен строго соответствовать своей информационной систе­ме. Носители информации и информационные системы должны быть комплементарны друг другу.

Рассмотрим четыре типа информационных систем, в соответ­ствии с которыми можно выделить четыре комплементарные им группы носителей информации.

Первая группа – это носители генетической информации. К ним относятся молекулы РНК, односпиральной ДНК и двуспиральной ДНК. «Вписывание» генетической информации в эти носители происходит в процессе трансляции, осуществляемой по матричному принципу, и лишь в качестве исключения (как ре­ликт? или прообраз будущего?) существует система «РНК об­ратная ревертаза ДНК» пока единственный пример перево­да информации с одной системы записи на другую в генетиче­ских информационных системах.

Вторая группа это носители поведенческой информации. Здесь уже следует различать носители, используемые для реализа­ции (и хранения) такой информации, и носители, используемые для ее передачи. Носители, используемые для хранения и реализации поведенческой информации, это неизвестные пока струк­туры нервных клеток или нервной системы в целом, с соответст­вующими считывающими устройствами. Для передачи поведенче­ской информации используются другие носители: в случае генетически-детерминированных поведенческих реакций носители пер­вой группы, а в случае поведенческих реакций, приобретаемых в ходе индивидуальной жизни, электромагнитные (световые лучи) и воздушные (звуки) колебания, а также ряд химических соедине­ний, имеющих специфические запахи. Существуют специальные приспособления рецепторы воспринимающие такую информа­цию и переводящие ее в ту форму записи, которая может сохра­няться и быть использована нервной системой.

При рассмотрении носителей второй группы, предназначенных для передачи индивидуальной поведенческой информации, возни­кает интересный вопрос: в каких ситуациях их можно рассматри­вать как действительно носители информации, а в каких как простые «сигналы», т.е. воздействия внешней среды, лишь запус­кающие реализацию тех или иных предсуществующих информа­ционных программ? Вопрос этот не тривиальный и относится к одной из важнейших особенностей развивающихся информацион­ных систем к способам обмена информацией. Можно думать, что в эволюции способов обмена поведенческой информацией решающее значение принадлежало использованию рецепторов, первоначально предназначавшихся для совершенно другой цели, а именно для восприятия различного рода внешних воздействий, таких, как световые, звуковые, химические и температурные, ко­торые иногда и называют двусмысленным термином «сигналы». Такие воздействия, или сигналы, могли последовательно играть три разные роли: непреднамеренного свидетельства (следы), преднамеренного свидетельства («Это моя территория!») и примера для подражания. Во всех трех случаях это то, на основании чего у реципиента может создаваться новая информация. Но лишь в третьем случае сигнал превращается в средство (или способ) пе­редачи уже существовавшей информации от донора к реципиенту, приобретая тем самым функцию носителя информации. Разнооб­разие физических объектов, служащих таковыми во второй группе носителей, как мы знаем, ограничено.

Третья группа это носители информации, специфически ис­пользуемые для передачи человеческого знания, за исключением технических систем связи. Помимо носителей информации вто­рой группы сюда относятся все те физические тела, на которых (и с помощью которых) можно записывать сообщения. При ог­ромном разнообразии потенциальных носителей такого рода использование их, во-первых, стереотипно, а во-вторых, всегда играет промежуточную роль, с последующим переводом на но­сители второй группы. Возникновение языка, однако, в отличие от сигнального типа общения, было прорывом информации за пределы собственных информационных систем как в простран­ство, так и во время.

К четвертой группе носителей могут быть отнесены те атри­буты технических систем связи, которые не воспринимаются не­посредственно органами чувств (как носители второй и третьей групп) и практически не генерируются живыми организмами. Информация, содержащаяся в таких носителях, чтобы быть в такие носители включенной или, чтобы быть воспринятой жи­выми организмами, требует обязательного трансформирования с помощью технических же систем приема или передачи. Это, прежде всего, электромагнитные колебания диапазона радио­волн, магнитозаписи и т.д. Вовлечение их в информационные циклы не принесло (по крайней мере до сих пор) ничего принципиального нового по сравнению с использованием носителей третьей группы, но чрезвычайно усилило потенции, в них за­ключавшиеся. Это относится, прежде всего, к скорости и рас­стоянию передачи информации, к возможностям ее хранения, а также к расширению круга возможных адресатов.

Прием, хранение и передача информации. Память

Таким образом, использование тех или иных потенциальных носителей информации в качестве ее реальных носителей цели­ком и полностью обусловливается особенностями соответствую­щих   информационных   систем.   Информационными,   как   договорились, будем и впредь называть системы, способные самостоя­тельно осуществлять полный информационный цикл, т.е. вос­произведение кодирующей их информации, а поэтому высту­пающие по отношению к такой информации как системы, обес­печивающие ее существование. Мы уже говорили, что воспроизведение информации обычно происходит путем самовоспроизве­дения всей системы. Каждое новое поколение информационной системы призвано воспринимать информацию, для этого подго­товленную, сохранять ее до следующего акта воспроизведения, а затем передавать дальше. Эти три элементарных информацион­ных акта являются необходимыми условиями существования любой информационной системы.

Мы помним, что информация сама по себе пассивна. Следо­вательно, каждый из этих информационных актов нуждается в физическом устройстве, обеспечивающем его осуществление. По­мимо этого, каждая информационная система обладает устрой­ством, осуществляющим реализацию информации построение кодируемых ею таких же систем или их компонентов. Принцип работы реализующего устройства мы рассмотрим ниже, сейчас же отметим, что информация, предназначенная для реализации, может быть записана либо на таком же носителе, что и прини­маемая, хранящаяся и передающаяся, либо на носителе какой-либо иной природы. Первый случай достаточно прост и в спе­циальном рассмотрении не нуждается. Второй же случай пред­полагает существование устройств, осуществляющих перевод ин­формации с одних носителей (систем записи) на другие, а именно на те, которые допускают ее реализацию. Осуществле­ние такого перевода будем называть пониманием информации.

При обсуждении процесса передачи и понимания информа­ции необходимо учесть следующие обстоятельства. Первое: при­нимающее устройство «поймет» только ту часть сообщения, ко­торая будет адекватна его собственной семантике. Второе пе­редача информации всегда сопряжена с потерями информации за счет естественных необратимых помех во внешней среде. Для того, чтобы сохранить передаваемую информацию, необходимо увеличить запас информации принимающего устройства. Тогда в процессе записи новой информации часть запаса приемника может быть потеряна из-за диссипативных взаимодействий с внешней средой. Эти замечания накладывают ограничения на принимающие устройства: они должны обладать той же семан­тикой и большим запасом информации или быть на более вы­сокой иерархической ступени эволюции.

Только существование устройств, осуществляющих перевод информации с одних систем записи на другие, позволяет ис­пользовать  для   передачи,  хранения   и   реализации   информации разные носители. Возникновение таких устройств в ходе разви­тия информационных систем было настоящей революцией. Од­ним из следствий этого было появление носителей с чрезвычай­но большой продолжительностью жизни, а затем использование подобных носителей для хранения информации, вне зависимости от особенностей создающих ее и использующих информацион­ных систем. Так возникли «блоки памяти», или «банки дан­ных», предназначенные для хранения информации, запасенной впрок. Другим следствием появления долгоживущих носителей было резкое расширение возможностей обмена информацией между информационными системами с разными способами ее фиксации. На базе того и другого и образовались технические системы связи, положившие начало «великому объединению» многочисленных разрозненных информационных систем в еди­ную суперсистему, свидетелями чего мы и являемся.

Закономерности передачи информации по различным кана­лам связи достаточно подробно рассматривает классическая или шенноновская математическая теория связи [6], и мы здесь этого касаться не будем. Отметим лишь универсальность этих закономерностей для любых информационных систем. В осно­ве таких закономерностей, помимо рассмотренных выше свойств информации, лежит также принцип линейной последо­вательности передачи и приема, а также записи информации. Если прибавить к этому еще и линейный принцип считывания информации в ходе ее реализации, то станет ясно, что прин­цип этот лежит в основе всех трансформаций, которым может подвергаться информация в ходе осуществления информацион­ных процессов.

Таким образом, по особенностям приема, хранения и переда­чи информации все информационные системы можно подразде­лить на два класса. Информационными системами 1-го рода будем называть те, где для всех трех основных информацион­ных актов, а также для реализации информации используются одни и те же системы записи или идентичные физические носи­тели. Информационными системами 2-го рода будем называть те, где для осуществления разных информационных актов могут быть использованы и действительно используются разные носи­тели. Переход от первых ко вторым был обусловлен возникно­вением устройств, обеспечивающих перевод информации с одних физических носителей на носители другой физической природы. Нетрудно видеть, что подразделение информационных систем по этому признаку полностью совпадает со сделанным выше под­разделением по признаку «прочности связи» отдельных блоков автомата фон Неймана. Это совпадение, конечно, совершенно естественно.

Считывание и понимание информации

Будем различать считывание информации и ее понимание, восприятие или рецепцию некоторой информационной системой. «Считыванием» будем называть первый этап процессов, завершающихся либо переводом информации с носителей одной фи­зической природы на носители другой физической природы, ли­бо реализацией информации в оператор. «Пониманием», как мы уже говорили, будем называть перевод информации с какой-либо группы носителей на тот носитель (или систему записи), который делает ее пригодной для реализации. Таким образом, понимание информации предполагает возможность ее считыва­ния, хотя само считывание далеко не всегда может сопровож­даться ее пониманием. Очевидно, что понимание информации возможно только для информационных устройств 2-го рода, ко­торые способны понимать информацию не только друг друга, но и ту, которая присуща информационным системам 1-го рода. Последние из-за отсутствия у них соответствующих устройств к пониманию чужеродной информации не способны.

Считывание информации может осуществляться двумя спосо­бами: когда считываемая информация сохраняется и, следова­тельно, может считываться неоднократно и когда информация в процессе ее считывания исчезает, разрушаясь буква за буквой или фраза за фразой. Как тот способ, так и другой могут быть использованы и при переводах, и при реализации информации. Очевидно, что реализация информации по второму способу предполагает наличие в этой же информационной системе одной или нескольких интактных копий этой информации, пригодных для введения в систему следующего поколения.

Очевидно, что возникновение устройства, пригодного для считывания информации в ходе ее реализации и являющегося необходимым компонентом любой информационной системы, должно было предшествовать возникновению устройства, при­годного для перевода информации с носителей одной природы на носители другой природы. Вероятнее всего, первое устройст­во явилось прототипом второго или даже прямым его предше­ственником, так как перевод любой информации можно, вообще говоря, трактовать как вырожденную ее реализацию.

Репликация информации: матричный принцип

Матричный принцип репликации информации, впервые опи­санный Н. К. Кольцовым [7], играет столь большую роль в раз­множении и динамике как самой информации, так и  информационных систем, что на нем следует остановиться подробнее. Суть матричного принципа состоит в том, что сначала с носи­теля информации изготавливается как бы слепок или негатив, а затем по нему воспроизводится точная копия исходного носите­ля. Антитезой матричному принципу может служить только принцип гомологичной аттракции, который в природе, кажется, реализации не получил.

Матричный принцип и принцип гомологичной аттракции, по-видимому, исчерпывают логические возможности точного воспроизведения объектов, максимально компактным описанием которых могут служить они сами. Точность такого воспроизве­дения, однако, не может быть абсолютной тривиальные тер­модинамические соображения показывают неизбежность ошибок, и речь может идти лишь об их количестве или частоте.

Как и при любых других способах воспроизведения «чего угодно», здесь возможны ошибки двух типов: ошибки, не влияющие на успешность воспроизведения, и ошибки, препятствующие ему. Первые можно назвать «наследуемыми», а вторые «летальными», ибо они прерывают цикл воспроизведения испы­тывающих их информации и тем самым обрекают эти инфор­мации на гибель. Если считать, что вероятность возникновения одной ошибки постоянна на одну букву сообщения, то, следо­вательно, вероятность ошибки на сообщение в целом будет возрастать с его длиной, т.е. с величиной емкости информацион­ной тары, это сообщение содержащей. Если частота таких оши­бок приближается к критическому значению, все большие пре­имущества будут получать наследуемые изменения, снижающие частоту этих ошибок или помогающие компенсировать их в случае возникновения, способ репликации будет совершенствоваться в направлении повышения его точности при парал­лельном (или независимом) развитии систем, обеспечивающих исправление или репарацию информации от возникающих оши­бок или повреждений.

В этом процессе интересная роль должна принадлежать недозагруженной емкости информационной тары. Изменения, в ней происходящие, могут иметь либо летальный характер, и тогда они неотличимы по последствиям от подобных изменений самой информации, либо могут приводить к возникновению новой информации, т.е. к увеличению количества информации, содержащейся в данном носителе. Таким образом, разность «Н-В» может оказаться не балластной, а сыграть роль источника сы­рья при «построении» новой информации.

Как уже отмечалось, уменьшение выхода ошибок при мат­ричном воспроизведении информации возможно не только пу­тем   их  предотвращения  в  результате   совершенствования   механизмов копирования, но также путем следующего за копирова­нием исправления уже возникающих ошибок. Для этого, оче­видно, требуется такие ошибки выявлять, что может быть осу­ществлено путем сопоставления новых копий либо с некоторым эталоном, либо нескольких копий между собой. Эталоном мо­жет служить либо образец, подлежащий копированию, либо «шаблон», непосредственно не относящейся к носителям самой информации. Шаблонный способ может служить лишь для от­браковки любых изменений, и где он возникает, прекращается вообще изменчивость информации, а следовательно, и ее эво­люция. Остается сопоставление копии с исходным образцом или с другими копиями. То и другое может помочь выявить изме­нение, а точнее различие между несколькими экземплярами носителей одной и той же информации, но решить, какое из них исходное, а тем более «правильное», а какое новое или «ошибочное», невозможно без специальных устройств или шаблонов. Поэтому коррекция ошибок может осуществляться двумя путями путем исправления нового образца, если его можно отличить от старого, и путем «исправления» в любом из двух образцов, т.е. путем делания их одинаковыми либо воз­вращая к исходному варианту, либо внося вновь появившееся изменение и в исходный, старый образец.

Можно полагать, что меры по стандартизации реплик будут обходиться тем «дороже», чем большая точность к ним предъ­является, и в реальной ситуации дело должно ограничиваться «сходной ценой»: снижением частоты летальных изменений до некоторого «удовлетворительно переносимого» уровня. Автома­тизм этого механизма очевиден и в детальном рассмотрении не нуждается. Результатом будет элиминация грозящих «вымира­нием» информации летальных изменений и закрепление в новых поколениях информации изменений нелетальных. Все это будет приводить к некоторому постоянно идущему процессу спонтан­ной изменчивости информации. Механизмы такой изменчивости для информационных систем разных типов могут различаться.

Репликация информации: способы и устройства

Для анализа способов репликации информации и устройств, это осуществляющих, большое значение имеет та особенность информации, на которую выше уже обращалось внимание. Особенность эта состоит в том, что при достаточно компактной записи информации ее невозможно задать более коротким тек­стом. Иными словами, информация представляет собой класс таких  объектов, которые нельзя  закодировать  более  короткими последовательностями символов, нежели те, которые их задают, независимо от их числа.

Хотя это утверждение абсолютно справедливо только для максимально компактных текстов, оно определяет основной принцип репликации или воспроизводства информации: принцип прямого копирования.

Вследствие пассивности самой информации для ее реплика­ции требуется наличие реплицирующего устройства, встроенного в соответствующую информационную систему. Мы уже отмеча­ли, что репликация информации может осуществляться только одним способом путем точного воспроизведения ее носителей. Логически возможны и в действительности существуют четыре варианта этого способа: последовательное и одномоментное ко­пирование, которые могут осуществляться непосредственно, а могут быть опосредованы «негативом». При этом используемый в том или ином случае вариант определяется как особенностями носителя данной информации, так и особенностями реплици­рующего устройства.

Запись информации может быть одномерная, двумерная и трехмерная, но, согласно свойству инвариантности, каждую из них можно трансформировать в одномерную форму. Справедли­во, конечно, и обратное утверждение. Поэтому способы репли­кации информации безразличны по отношению к размерности ее записи и могут быть рассмотрены на примере линейной по­следовательности символов. Но вот что существенно и что нельзя забывать: так как реплицирующее устройство никогда не «знает», сколь компактен текст, который ему предстоит репли­цировать, то как сама репликация, так и процедуры, с ней свя­занные, всегда осуществляются так, как будто бы они имеют дело с максимально компактной записью. Выражается это в том, что собственно репликации всегда и без исключения под­вергается не сама информация как таковая, а содержащие ее носители. Поэтому задача репликации информации в действи­тельности сводится к репликации ее носителей, воспроизведение же самой информации является лишь неизбежным следствием этой процедуры. Репликация информации, следовательно, может осуществляться без соответствующего ее понимания и реализа­ции информационной системой.

Соответственно четырем названным выше вариантам репли­кации информации может существовать четыре типа устройств, для этого предназначенных. Принципиальные схемы их конст­рукций тривиальны и специально рассматриваться не будут. Важно лишь отметить, что в природных (а не технических) ин­формационных системах доминирует последовательный негативный способ, который обычно и называют матричным.  В искусственных или   технических   системах используются все четыре способа, развившиеся из доминирующего в природных системах.

Реализация информации: построение оператора

Реализацию любой информации можно разделить на два этапа: построение оператора (собственно реализация или мате­риализация информации) и работа оператора по осуществлению целенаправленного действия. Рассмотрение реализации информа­ции начнем с первого этапа.

Материализация информации предполагает, прежде всего, на­личие устройства, ее осуществляющего. Любую информацию, согласно нашему определению, можно представить себе как программу для построения некоторого объекта оператора. Это не что иное, как алгоритмическое определение информации по А. Н. Колмогорову [1], подчеркивающее ее действенность. Но информация сама по себе пассивна это лишь программа, вво­димая в «реализующее устройство». Такое устройство, само яв­ляющееся оператором, выполняющим определенное целенаправ­ленное действие, не может возникнуть само по себе, а может быть создано лишь на основе какой-то информации. Как и другие объекты материального мира, реализующее устройство не вечно и, конечно, изнашивается и нуждается в замене. Для построения нового реализующего устройства опять требуется соответствующий оператор и т.д. Возникает порочный круг. Выходом здесь может быть лишь предшествующее каждому но­вому циклу реализации информации построение новых реали­зующих устройств с помощью старых, оставшихся от предыду­щего цикла, а затем с их помощью уже построение самого опе­ратора. Так мы опять возвратились к схеме работы автомата фон Неймана (см. рис. 3).

Таким образом, полная реализация информации может пред­ставлять собой лишь ряд последовательных шагов, т.е. построе­ние ряда промежуточных операторов, так, чтобы лишь послед­ний окончательно выявил ее семантику, совершив, наконец, за­ключительное действие, целью которого, как мы помним, явля­ется воспроизведение информации, относящейся к данной ин­формационной системе (см. главу 2).

А. Н. Колмогоров в своих эссе об алгоритмическом определе­нии информации [1] разделяет собственно информацию о неко­тором объекте и программу построения этого объекта по дан­ной информации. По-видимому, информацию, и притом любую, всегда достаточно рассматривать как некоторую программу или как руководство к действию, которые, однако,  никогда  не  могут быть исчерпывающе полными. Реализация таких программ всегда предполагает нечто, предопределяемое особенностями са­мого реализующего устройства, и вопрос о том, насколько по такой программе можно априори воссоздать оператор в его окончательном виде, всегда остается открытым. Не это ли имел в виду А. Н. Колмогоров, говоря о недискурсивности функций, представляющих собой такие программы? Тогда максимально-компактной записью информации можно называть минимальную длину программы (из всех возможных), допускающей построе­ние оператора.

Здесь возникает интересный вопрос о соотношении сложно­сти и специфики самого оператора, его описания и программы для его построения. Подробнее эти вопросы будут рассматри­ваться ниже.

Мы должны здесь подчеркнуть две стороны процесса по­строения оператора на основании данной информации, завер­шающегося возникновением оператора для осуществления целе­направленного действия. Первое этот процесс требует притока вещества и энергии. Второе ошибки копирования, о которых мы говорили выше, будут отражаться в построении промежуточных операторов в качестве «мутаций» или «флуктуации». Эффективность или жизнеспособность конечного продукта будет зависеть от этих промежуточных операторов, которые являются, таким образом, материалом для дарвиновского отбора.

Ощущение порочного круга реализация информации через реализующее устройство, построение которого также требует информации, отражает не тавтологичность наших рассуждений, а тот объективный факт, что никакой информации вне связи с информационными системами не существует и существо­вать не может. Любая же реальная информационная система возникла в ходе преемственности, развилась из ранее существо­вавших, а не спонтанно. Это приводит к простому выводу, что возникнуть информация могла лишь в единстве с ее информа­ционной системой, в максимально простом из возможных ее вариантов. Только дальнейшее развитие такой системы, с вы­членением отдельных блоков (или устройств), представляло со­бой реализацию потенций, заложенных (или, точнее, скрытых) в этой прародительской информационной системе.

Операторы и их характеристики

Мы уже говорили, что любой оператор, от считывающего и реализующего устройства до всей информационной системы в целом, можно рассматривать как машину, призванную осуществлять то или иное целенаправленное действие. Теория таких машин кратко изложена Л. А. Блюменфельдом [8], и повторять ее нет надобности. Здесь же нас интересуют лишь самые общие характеристики операторов и особенности их связи со свойст­вами кодирующей их информации.

Чтобы в дальнейшем не возникало недоразумений, следует, пожалуй, еще раз подчеркнуть, что оператор это любой объ­ект, возникновение которого возможно только на основе предшествующей информации. Таким образом, к классу операторов мы должны относить и молекулы белка, и рибосомы, и всю со­вокупность негенетических компонентов клеток, и всех живых организмов, и все, что изготавливают эти организмы для под­держания своего воспроизведения, а также любой объект чело­веческих технологий и весь технологический комплекс в целом. Построение любого оператора всегда и неизбежно, как мы ви­дели, предшествует воспроизведению кодирующей его информа­ции и необходимо для осуществления этого воспроизведения, хотя обратное заключение не обязательно верно (действительно, информация IА может кодировать оператор, обеспечивающий воспроизведение информации IА + IВ + IС + ...). Поэтому любой оператор может быть отнесен к системам обеспечения воспроиз­ведения информации. Таким образом, любой оператор всегда выполняет две функции: осуществление целенаправленного дей­ствия, для чего он непосредственно предназначен, и обеспечение воспроизведения кодирующей его информации, что может либо полностью совпадать с первой функцией, либо быть весьма опосредованной, отдаленной, но все равно строго обязательной целью его деятельности.

Однако, каким бы ни был оператор и сколь бы опосредован­ной ни была его связь с достижением конечной цели, его всегда можно охарактеризовать в трех аспектах: сложностью его органи­зации, спецификой строения и коэффициентом его полезного дей­ствия. Рассмотрим последовательно эти три характеристики.

Сложность оператора и количество информации

Сложность организации операторов, как и любых других объектов, можно задавать несколькими способами, в соответст­вии с чем и меры сложности могут быть разными.

Действительно, сложность организации любого объекта мож­но, по-видимому, выразить числом знаков (напр., бинарного кода), требующихся для описания этого объекта; числом и разнообразием составляющих данный объект элементов; числом «шагов» (операций), требующихся для построения этого объекта из исходного сырья, и т.п. И хотя каждый из таких подходов к выражению сложности объекта требует своего ограничения (т.е. до какого уровня следует доводить детализацию), причем ус­ловность здесь неизбежна, очевидно, что все эти способы связа­ны друг с другом так, что при возрастании любой избранной меры сложности будут возрастать значения и других.

Если в качестве меры сложности объекта использовать число знаков бинарного кода (т.е. биты), требующихся для его описа­ния (на избранном уровне организации), а в качестве меры ко­личества кодирующей его информации число знаков бинарно­го кода, задающих программу его построения (на этом же уровне организации), то мы получим возможность сравнивать их друг с другом.

У А. Н. Колмогорова [1] существует высказывание, что с уве­личением сложности объекта и, следовательно, числа битов, требующихся для полного его описания, количество информа­ции, кодирующей построение этого объекта, будет так возрас­тать, что в конце концов, при достаточно большой сложности объекта, полностью совпадет с его описанием. Так ли это? Если программу построения объекта задавать, следуя дихотомическо­му принципу, то количество информации, кодирующей объект, будет возрастать как логарифм его сложности, т.е. будет все более отставать от степени его сложности. Можно, по-видимому, доказать утверждение, сформулированное выше, что сложность объектов возрастает быстрее, чем количество коди­рующей их информации, например, как его степенная функция. Тогда разрыв между числом битов, описывающих объект, и числом битов, задающих программу его построения, с увеличе­нием сложности объекта будет только возрастать.

Увеличение сложности объекта с увеличением количества ко­дирующей его информации означает, что в общем случае при этом увеличивается число составляющих его деталей, усложняет­ся их взаиморасположение, возрастают энергозатраты как на построение такого объекта, так и на обеспечение его функцио­нирования. В случае операторов а мы уже условились, что все без исключения объекты, возникающие при участии инфор­мации, можно считать операторами, - это утверждение справед­ливо, конечно, лишь по отношению к тем ситуациям и целям, для которых эффективность соответствующей информации больше нуля.

Таким образом, мы приходим к выводу, что сложность строения операторов всегда увеличивается так же или быстрее, как и количество кодирующей их информации. Это означает одновременное увеличение энергозатрат как на изготовление, так и на обеспечение функционирования этих операторов.

Специфика операторов и семантика информации

Семантику информации мы определили выше как ту ее осо­бенность, которая обусловливает специфику кодируемого ею оператора. Из-за условности любой информации очевидно, что понятие «семантика» имеет смысл лишь по отношению к дан­ной информационной системе, или, точнее, данному реализую­щему устройству этой системы. Под «спецификой» оператора имеются в виду особенности слагающих его компонентов и ха­рактер связей между ними, что, в конечном счете, и определяет успешность участия оператора в осуществлении того или иного целенаправленного действия. Следовательно, именно семантика информации определяет ту специфику оператора, благодаря ко­торой вероятность успешного достижения цели, а следовательно, и ценность данной информации, имеет то или иное распределе­ние на множестве пар «ситуация-цель» (см. глава 2). Способы выражения как специфики оператора, так и ценности информа­ции оказываются идентичными.

Работа оператора, ее характеристики

Первым этапом реализации информации является, как мы помним, создание оператора. Второй этап деятельность, или работа этого оператора, результатом чего и будет осуществление события цели Z и возникновение побочных продуктов w, этому сопутствующее. Очевидно, что оба этапа реализации информации могут быть существенно разделены во времени, вплоть до такого крайнего случая, когда первый может произойти, а второй нет. Очевидно также, что лишь завершение второго этапа является полной реализацией информации, и только от этого зависит ее дальнейшая судьба как в том случае, когда успешность работы операторов побуждает «расширять их производство» и, следовательно, будет приводить к мультипликации кодирующей их ин­формации, так и в том случае, когда итогом их работы является непосредственное воспроизведение информации.

Работа операторов, как и любых машин, требует, прежде всего, затрат определенного количества энергии. Это обстоя­тельство сразу же вводит нас в круг привычного царства зако­нов механики и термодинамики. Мы можем здесь, следовательно, говорить о затратах энергии на работу операторов, о рас­ходовании энергии на «полезное действие» (достижение Z) и на производство «побочных продуктов» (w).

Особенности информации определяют специфику оператора, а эта последняя его  термодинамические характеристики  в данном информационном поле. Эти характеристики, в свою оче­редь, влияют на динамику самой информации, определяя ско­рость ее воспроизведения и степень мультипликативности. По­этому динамику информации невозможно понять, не уяснив себе предварительно характер связей между ее свойствами и термо­динамическими особенностями оператора.

КПД оператора и характеристики информации

КПД оператора, как и любой другой машины, можно выра­зить отношением полезно затрачиваемой энергии к общему ее расходованию оператором при осуществлении целенаправленно­го действия. Согласно определению, полезной будем называть ту энергию Ez, которая расходуется только на осуществление «полезного действия», т.е. на достижение цели Z. Следователь­но, разность между общей и полезной энергией идет на «произ­водство» побочного продукта w данного целенаправленного действия:

                         (17)

Какие же характеристики информации и в какой мере обу­словливают КПД ее оператора?

К сожалению, строгих подходов к ответу на этот вопрос по­ка не существует. Лишь интуитивно можно полагать, что в са­мом общем случае расходы энергии на работу оператора долж­ны возрастать с увеличением его сложности, а чем больше от­носительное количество «полезно» затрачиваемой энергии Ez, тем больше вероятность достижения цели в данном пространст­ве режимов при использовании данного оператора. Но, как мы видели выше, сложность оператора отражает количество Bz ко­дирующей его информации, а вероятность достижения цели определяет ее ценность Cz. Поэтому на основании чисто интуи­тивных соображений можно высказать предположение, что КПДQ увеличивается с ростом С/В =А1, т.е. что КПД оператора возрастает пропорционально ценности С и обратно пропор­ционально количеству В кодирующей его информации, или, что то же самое, пропорционально эффективности А, этой инфор­мации. Конечно, это справедливо только для пар «информация-оператор» данного типа и может проявляться лишь в последо­вательном ряду преемственных пар «информация-оператор».

Таким образом, можно высказать предположение, что коэф­фициент полезного действия оператора возрастает с увеличением эффективности кодирующей его информации.

Это предположение, если его удастся строго доказать, может вполне претендовать на роль основной теоремы будущей теории информации. Предположение это столь фундаментально, что его следует рассмотреть более внимательно. Роль этого предположе­ния состоит в том (как будет показано в главе 5), что только на его основе можно строить учение о динамике информации. Поэтому приведенное выше предположение можно рассматри­вать как «центральную догму» общей теории информации, без доказательства или принятия которой невозможно последовательное ее построение. Будем надеяться, что в недалеком буду­щем удастся не только доказать справедливость этого предпо­ложения, но и выяснить (хотя бы в общем виде) форму зависи­мости КПДQ от А1.

Какова же может оказаться форма этой зависимости? Вряд ли она будет линейной. Скорее всего, зависимость эта будет иметь более сложный характер, и в нее будут входить коэффи­циенты, отражающие другие свойства и особенности информа­ции, помимо ее количества и ценности. Но при константных значениях таких коэффициентов с увеличением А1 значение КПДQ будет, скорее всего, монотонно увеличиваться, и пока для нас этого вполне достаточно. Ведь вряд ли можно сомневаться, что значения этих коэффициентов будут отражать, главным обра­зом, специфику пространства режимов и информационных по­лей.

Из соотношения (15) можно вывести ряд следствий.

Первое следствие. КПДQ не есть постоянная величина, но за­висит от особенностей пространства режимов и информацион­ного поля (т.е. от ситуации, при которой «работает» оператор, и той цели, для достижения которой он служит). Но распреде­ление КПДQ по множеству информационных полей должно если не совпадать, то «однонаправленно отображать» распределение эффективности А, соответствующей информации.

Второе следствие. КПДQ отображает «эффективность» дости­жения цели, мерой которой в информационном аспекте служит эффективность А1 самой информации. Это очень важное следствие. Оно наполняет реальным физическим содержанием понятие «эффективность информации», введенное выше чисто формально (см. главу 2). Нетривиальность ситуации состоит в том, что максимум КПДQ далеко не всегда и далеко не обязательно дол­жен соответствовать максимуму вероятности достижения цели: лишь в начале, при значениях С ›› 1, КПДQ будет возрастать с увеличением С, а затем может либо стабилизироваться, либо начнет уменьшаться, изменяясь в разных ситуациях с разными скоростями. Но во всех случаях максимумы кривых КПДQ(В) и А1(В) должны совпадать, точнее, должны совпадать их положения по оси абсцисс, т.е. оба максимума должны приходиться на одни и те же значения В = Ворt.

Третье следствие. Хотя величина КПДQ может изменяться в интервале от 0 до 1, т.е. пробегать те же значения, что и Р вероятность достижения цели в данном целенаправленном дей­ствии, а также С - ценность информации, это еще не означает, что КПДQ однозначно, хотя бы по направлению, отражает зна­чение Р и С. Можно лишь думать, что при достаточно боль­ших значениях КПДQ величины Р и С не должны быть очень малыми, хотя обратное заключение может быть неверным, ибо высоким значениям Р и С могут соответствовать очень низкие значение КПДQ. Примеров этому, пожалуй, можно привести множество. Это следствие очень богато содержанием и, можно думать, имеет огромное значение для анализа конкретных путей динамики информации.

Четвертое следствие. Очевидно, что на производство «побоч­ных продуктов» w расходуется лишь некоторая доля от всей энергии, требующейся оператору для осуществления целенаправ­ленного действия: EW = Е (1 –КПДQ). Это, однако, не означает, что с увеличением КПДQ выход побочного продукта будет уменьшаться, а «безотходность производства» – возрастать. Можно думать, что выход побочного продукта будет примерно пропорционален абсолютному значению «бесполезного» расходования энергии в данном объеме пространства именно про­странства, а не «пространства режимов»! Поэтому выход по­бочного продукта и должен быть пропорционален ЕW = (EQ - Ez) = Eq (1 КПДQ). В общем случае форма зависимости выхо­да побочного продукта w от КПДQ и, следовательно, от харак­теристик информации может иметь весьма сложный характер, но мы этот вопрос рассматривать не будем.

Подведем теперь некоторые итоги.

Важнейшим аспектом связи КПДQ и А1 является, таким обра­зом, выявление и рассмотрение абсолютных соотношений между В, С и А информации, с одной стороны, и EQ, Ez и КПДQ, с другой. Решаема ли задача в общем виде, трудно сказать. Не исключено, что связь между А, и КПДQ установить удастся, но нахождение абсолютных значений соответствующих характери­стик информации и операторов в каждом конкретном случае потребует, конечно, специальных расчетов.

Нетрудно видеть, что все сказанное выше относится в равной мере к любым операторам, а главное, к любым информационным системам, обеспечивающим воспроизведение информации. Харак­теристики таких схем, как мы постарались показать выше, зави­сят от особенностей пространства режимов, в пределах которого эти системы  призваны  функционировать,  т.е.  совершать  целенаправленные действия, сопровождающиеся появлением побочных продуктов. Поэтому «деятельность» информационных систем невозможно себе ясно представить, не рассматривая ее в теснейшей связи с характеристиками соответствующих ситуаций и теми из­менениями, которые в них могут индуцироваться.

Пространства режимов и их характеристики

Пусть дана некоторая информация I, кодируемый ею оператор Q, и определено событие, являющееся целью Z. Каждый из факто­ров, необходимых и достаточных для осуществления с той или иной вероятностью р или Р этого события, можно представить себе как одну из осей координат некоторого многомерного пространства, число измерений которого равно числу этих факторов. Построенное таким образом пространство назовем «пространством режимов» данной информационной системы. За начало координат этого пространства можно принять точку, где значения всех факторов равны нулю; по мере нарастания степени выраженности каждо­го фактора оси пространства режимов будут расходиться.

В любом пространстве режимов можно выделить две области: область спонтанного осуществления Z(p > 0) и область целена­правленного действия (Р > р). Первая из этих областей задается многомерной поверхностью, описывающей распределение по про­странству режимов величины р, а вторая распределением вели­чины Р; очевидно, что вторая область включает в себя первую.

В области спонтанного осуществления Z можно выделить «зону комфорта», где р≈1. Отрезок времени, в течение которо­го в зоне комфорта осуществляется Z, можно назвать «собст­венным временем» данной системы и использовать его для ка­либровки времени, в данной системе протекающего. Тогда зна­чение 0<р≤1, а также все значения Р > 0 можно трактовать как «вероятности в единицу времени», подразумевая под последним собственное время системы. Функционирование опера­тора в области целенаправленного действия можно описывать как миграцию любой заданной точки этой области в зону ком­форта и обратно. Получаемые при этом циклы можно характе­ризовать продолжительностью, длиной пути и вероятностью за­вершения и, таким образом, сопоставлять друг с другом.

Очевидно, что пространство режимов любой информацион­ной системы можно также характеризовать распределением на нем значения ценности С информации, эту систему определяю­щей. Отсюда легко перейти к распределению на пространстве режимов величины КПДQ, что приобретает особый интерес в качестве меры соответствия.

Принцип соответствия. Мера соответствия

Очевидно, что в действительности пространства режимов s «в чистом виде» не существуют и существовать не могут. В любой ре­альной ситуации помимо факторов, необходимых для осуществ­ления целенаправленного действия и составляющих пространство режимов, обязательно присутствуют еще и факторы, безразличные по отношению к деятельности данной информационной системы, а также факторы, препятствующие ее деятельности, т.е. выступающие в роли помех. Безразличные факторы не влияют ни на р, ни на Р, а помехи могут уменьшать как р, так и Р и, следовательно, существенно влиять на величину С. Наличие таких факторов явля­ется очень важным обстоятельством, сказывающимся на работе информационных систем, а следовательно, и на динамике информации в данных конкретных условиях, т.е. в среде ее оби­тания. К этому нужно еще добавить, что по мере функциони­рования оператора любая реальная среда не остается постоян­ной, а постепенно изменяется в результате потребления имею­щихся в ней ресурсов R, необходимых для осуществления целе­направленного действия, и накопления побочных продуктов w. Поэтому термин «пространство режимов» можно использовать лишь для формального описания работы той или иной инфор­мационной системы, а при описании реальной ситуации лучше пользоваться термином «зона обитания» (или каким-либо его синонимом), которую можно характеризовать исходным состоя­нием и последующей трансформацией.

Для того, чтобы данный оператор в данной зоне обитания мог осуществлять данное целенаправленное действие, этот опера­тор должен соответствовать этой зоне. С равным правом можно говорить о соответствии друг другу зоны обитания и кодирую­щей данный оператор информации. Иными словами, чтобы дан­ный оператор был работоспособным, информация, его кодирую­щая, должна «предусмотреть» не только пути миграции данной точки пространства режимов в зону комфорта, но и достаточную помехоустойчивость оператора. Требуемую помехоустойчивость можно обеспечивать по меньшей мере тремя способами: уходом от помех, защитой от них и репарацией (починкой) вызываемых помехами нарушений.

Реальные формы распределения р и Р на зоне обитания (раз­мерность которой может существенно превышать размерность включенного в нее пространства режимов) позволяют для каждой данной информационной системы построить распределение на этой зоне как эффективности А информации, так и КПД опера­тора. Второе из этих распределений можно использовать в каче­стве «критерия соответствия» друг другу информации и оператора, с одной стороны, и информации и зоны обитания, с другой. Мерой такого соответствия для каждой точки зоны обитания бу­дет, естественно, служить соответствующая ей величина КПДQ.

Теперь мы можем сформулировать принцип соответствия один из основных принципов общей теории информации [9]:

Мерой соответствия оператора и кодирующей его информации служит соответствие между зоной обитания и действием операто­ра, его КПДQ.

Здесь, естественно, может встать вопрос о достаточности тако­го критерия соответствия, как величина КПДQ. Если рассматри­вать относительную конкурентоспособность нескольких информа­ционных систем в данной зоне обитания, этого критерия, по-ви­димому, вполне достаточно. Можно показать, однако, что этот критерий соответствия будет «работать» и в случае конкуренции нескольких информационных систем: ведь каждую из них, а так­же вызываемые ими изменения зоны обитания можно выразить в форме одной или нескольких дополнительных осей координат данной зоны обитания или в форме вектора, отражающего ско­рость и направление трансформации этой зоны во времени. Хотя реальный аппарат, пригодный для такой интерпретации проблемы конкурентоспособности разных информационных систем, может быть достаточно сложным, принципиальных трудностей здесь не просматривается.

Зона обитания и ее характеристики

Итак, зоной (или средой) обитания некоторой информацион­ной системы будем называть внешнюю по отношению к ней сре­ду s, содержащую ресурсы R, необходимые для функционирования этой системы, а также отвечающую другим требованиям, необхо­димым для обеспечения успешности этого функционирования. Попадая в такую подходящую для нее зону, информационная система начинает «работать», поглощая ресурсы и создавая соб­ственные копии, а также засоряя среду побочными продуктами своей деятельности. В ходе такой работы информационные систе­мы, следовательно, не только воссоздают себя, но и трансформи­руют среду их обитания.

Такие изменения среды обитания информационных систем все­гда и неизбежно слагаются из трех составляющих. Во-первых, это изъятие из среды ресурсов R, необходимых для работы операто­ров информационных систем. Во-вторых, это поступление в среду побочных продуктов w работы операторов. В-третьих, это накоп­ление в среде все новых экземпляров вновь создаваемых инфор­мационных систем, т.е. «заселение» ими среды обитания.

Все это из множества возможных характеристик среды обита­ния позволяет выделить следующие, для нас наиболее существен­ные. Первая характеристика это положение среды обитания по отношению к пространству режимов, что отражает степень опти­мальности данной среды для заселяющих ее информационных систем. Вторая это наличие в данной среде факторов типа по­мех, негативно действующих на информационные системы и предъявляющих к ним требования той или иной помехоустойчи­вости. Третья это ресурсоемкость среды обитания, которую можно выразить отношением имеющихся в ней ресурсов R к то­му количеству ресурсов r, которое требуется для осуществления одного цикла целенаправленного действия: Rr-1 = p.

Очевидно, что в случае р < 1 целенаправленное действие, на­чавшись, не сможет завершиться. В случае р = 1 оно может осу­ществиться лишь один раз. Только в случае р›› 1 среда обита­ния будет успешно «разрабатываться» информационными систе­мами, все более «засоряющими» ее при этом побочными продук­тами своей деятельности. В какой мере среда обитания сможет «справляться» с этим засорением, будет определяться четвертой ее характеристикой ее кондиционирующей мощностью. Наконец, пятая характеристика объем среды обитания будет опреде­лять, какое предельное количество информационных систем она сможет «вместить в себя» без ущерба для их дееспособности. Очевидно, что объем среды обитания определяется как ее собст­венными параметрами, так и параметрами «жизненного простран­ства», требующегося для нормальной работы одной информаци­онной системы.

К этим характеристикам надо добавить еще одну, интеграль­ную характеристику среды обитания, которую можно назвать ее надежностью. Это способность сохранять значения своих пара­метров при постоянном давлении различных деформирующих факторов, в нашем случае продолжающемся потреблении ресур­сов и поступлении побочных продуктов w. Ввиду особой важно­сти этого параметра, т.е. надежности, рассмотрим его более вни­мательно.

Продуктивность, кондиционирующая мощность и надежность

Независимо от того, циклической или непрерывной, постоян­ной или изменяющейся во времени будет деятельность операто­ра Q1, попавшего в данную среду обитания, эта деятельность неизбежно будет сопровождаться потреблением ресурсов R - источников энергии и субстрата окружающей среды 5 и поступле­нием в нее w побочных продуктов или «отходов производства» в виде тепла, различных химических соединений и пр. Для уп­рощения ситуации положим, что осуществление события цели Z само по себе никак не влияет на среду обитания. Тогда можно записать:

                             (18)

где i = 0, 1, ... п есть номер очередного цикла работы оператора или время, прошедшее от начала его функционирования. Из этого следует, что для того, чтобы среда обитания оставалась пригодной для существования в ней данного оператора (или его копий), она должна постоянно поставлять ресурсы R и справ­ляться с побочным продуктом w независимо от величины i, так чтобы  Si S0

 

Заметим, что R и w не являются независимыми переменны­ми. Ведь как Z, так и w образуются из исходных ресурсов R, так что можно ввести параметр

                                    (19)

где rz + rw = r, а величина а может быть названа «коэффициентом полезного использования ресурсов». Так как w всегда сопутству­ют Z, то а всегда и неизменно меньше единицы (0 < а< 1).

Нетрудно видеть, что а очень важная, фундаментальнейшая характеристика любого целенаправленного действия: чем меньше а, тем большая доля ресурсов R «идет в отход», засоряя среду обитания: w =fR (1 - а).

Ресурсы R, по отношению к содержащей их среде, могут быть, вообще говоря, двух типов невозобновляемыми и возобновляе­мыми. Мы будем рассматривать возобновляемые ресурсы, как наиболее общий случай. Тогда способность среды обитания про­изводить тот субстрат и те источники энергии, которые слагают ресурсы R, будем называть продуктивностью этой среды. В слу­чае, когда продуктивность (реальная или потенциальная) полно­стью компенсирует расход ресурсов в ходе функционирования информационных систем, такие ресурсы можно условно считать неисчерпаемыми. Если же продуктивность существенно ниже ско­рости потребления ресурсов, то практически мы будем иметь дело с невозобновляемыми ресурсами.

В обоих случаях, однако, характер ресурсов не будет влиять на скорость поступления в среду обитания побочных продуктов w, определяемую  лишь  «ресурсоемкостью»  целенаправленного  действия, величиной w и собственным временем данной информа­ционной системы. Накоплению в среде побочного продукта или загрязнений противостоит кондиционирующая мощность этой среды, или ее способность разбавлять, захоранивать, разрушать, нейтрализовывать или утилизировать компоненты побочного продукта. Поэтому реальное загрязнение среды побочными про­дуктами определяется разностью между скоростью их поступле­ния и скоростью кондиционирования (или самоочистки) среды обитания. Очевидно, что только в том случае, когда кондицио­нирующая мощность превышает скорость накопления побочных продуктов, среда практически не подвергается их действию.

Надежностью среды обитания будем называть ее способность сохранять характеристические значения продуктивности θ и кондиционирующей мощности ø при приближении скорости расходования ресурсов и скорости поступления побочных про­дуктов к ø (т.е. при dR/dtθ и

dw/dt → ø).

Действительно, можно представить себе, что значения θ и ø по мере возрастания dR/ dt и dw/dt могут: не изменяться, воз­растать или уменьшаться. Во всех трех случаях, однако, должны существовать такие предельные значения θ0 и ø0, определяемые соотношениями

 и                                  (20)

которые мы и будем называть характеристическими. Заметим, что θ0 и ø0, вообще говоря, могут зависеть от разных случай­ных ситуаций, не связанных непосредственно с работой информационных систем, но чем надежнее среда обитания s, тем меньше будет выражена такая зависимость.

Очевидно, что надежность среды обитания обусловливается особенностями функционирования ее компонентов. Проблема эта будет еще рассматриваться ниже. Сейчас лишь заметим, что в самом общем случае надежность тем выше, чем из большего числа компонентов эта среда слагается. Чем больше размер­ность среды обитания, тем стабильнее она должна функциони­ровать и в качестве продуцента, и в качестве кондиционера, в том числе и при увеличении нагрузок на эти функции.

Заметим, что хотя продуктивность и кондиционирующая мощность обеспечиваются в среде обитания как бы независимо друг от друга, обе эти функции связаны между собой через ее (среды) надежность. Подавление кондиционирующей мощности, уменьшая надежность среды обитания, будет, как правило, при­водить к уменьшению ее продуктивности. Поэтому все три фундаментальных параметра среды обитания ее продуктив­ность, кондиционирующая мощность и надежность тесно связаны между собой и имеют тем большие значения, чем больше многокомпонентность (или размерность) этой среды. Величина же надежности среды обитания определяет, в конечном счете, ту максимально-допустимую нагрузку на ее продуктивность и кон­диционирующую мощность, которую эта среда может выдер­жать, не претерпевая необратимых трансформаций.

Побочный продукт и его воздействие на среду обитания

Из сказанного выше как будто следует вывод, что на «про­изводство» побочного продукта w расходуется (I - rz) доля ре­сурсов, требующихся для осуществления целенаправленного дей­ствия, и (I - КПДQ) энергии, для этого используемой. Однако это лишь нижняя оценка затрат, идущих на выработку w. Если учесть, что конечной целью деятельности любой информацион­ной системы является воспроизводство кодирующей ее инфор­мации, то окажется, что «полезно используемые» ресурсы, в том числе источники энергии, почти целиком расходуются на произ­водство неинформационных компонентов таких систем, т.е. сла­гающих их операторов и физических носителей информации, а не на информацию как таковую, ведь информация нематери­альна, и для ее воспроизводства никаких вещественных или энергетических затрат не требуется. Но любой материальный объект обречен на гибель; эта судьба ожидает и все операторы, и включающие их информационные системы. Погибая и разру­шаясь, они также «загрязняют» среду, в которой ранее функцио­нировали, чужеродными для нее компонентами.

Таким образом, воспроизводство, тем более расширенное, информации, осуществляемое информационными системами (реаль­ными воплощениями универсального автомата фон Неймана) в среде их обитания сопровождается накоплением в этой среде чужеродных ей элементов двух типов побочных продуктов w целенаправленного действия и «отработанных» операторов Q. Если на выработку w расходуется (1 - a) R, а на выработку Q - aR, то очевидно, что в ходе осуществления информационных циклов все ресурсы R, черпаемые информационными системами из внешней среды, возвращаются в нее же в трансформированном виде, и кондиционирующая мощность среды должна быть направлена на «дезактивацию» не только w, но и Q.

Итак, по отношению к среде обитания целенаправленная дея­тельность разрабатывающих ее информационных систем выража­ется в переработке некоторых исходных ее компонентов (назван­ных нами ресурсами R) в новые, чуждые ей продукты физические тела и химические соединения, поступающие в нее во все возрастающих количествах. На это идут все черпаемые из внеш­ней среды ресурсы. Коэффициент полезного использования ресур­сов а и коэффициент полезного действия операторов КПДQ опре­деляют лишь соотношение разных компонентов в продуктах трансформации R, но не валовое их количество. Процесс этот предъявляет к среде обитания два требования: усиление функции продуктивности для компенсации убыли R и усиление кондицио­нирующей функции для элиминации или трансформации чуже­родных ей компонентов. По мере деятельности информационных систем напряженность этих функций должна все более возрастать, а так как ни один процесс в природе не может осуществляться с абсолютной точностью, то трансформация среды обитания (под влиянием деятельности информационных систем) в направлении обеднения ресурсами R и накопления новых компонентов (за счет поступающих в нее w и Q) столь же неизбежна, сколь неизбежно само течение времени. Кондиционирующая и продуктивная «деятельность» этой среды может лишь затормозить, но не полностью предотвратить этот процесс.

КПД целенаправленного действия. Объективные и субъективные аспекты

Если допустить, что скорость переработки ресурсов R каж­дым данным оператором Q, постоянна, то отсюда следует, что коэффициент его полезного действия определяет не только со­отношение «неопределенных» и «определенных» компонентов в загрязняемости внешней среды, но и скорость завершения ка­ждого цикла целенаправленного действия, т.е. скорость дости­жения цели. Чем выше КПДQ, тем четче работает оператор, меньше загрязняя среду обитания «неопределенными» отходами и быстрее завершая каждый цикл целенаправленного действия, т.е. воспроизводя свою копию и кодирующую ее информацию. Таким образом, величина КПДQ оказывается тесно связанной с величиной собственного времени Q. Если же учесть, что среди неконтролируемых отходов вполне могут быть и такие, которые, накапливаясь в среде обитания, могут выступать как помехи по отношению к оператору, то связь между величиной КПДQ со скоростью и эффективностью (т.е. величиной Р) достижения цели становится еще более явственной. Таковы основные объ­ективные аспекты КПД целенаправленного действия.

Но величина КПДQ, как мы помним, отражает особенности структуры оператора, так сказать, степень его «нацеленности» на выполнение именно данного целенаправленного действия  в данной среде обитания. Чем жестче подчинена его структура (а следовательно, и характер деятельности) задаче достижения данной цели, тем слаженнее работают его составные части, тем меньше совершает он ненужных или неэффективных опе­раций, тем экономнее использует источники сырья и энергии. Уменьшение КПДQ, как правило, отражает меньшую «целеуст­ремленность» в его работе, меньшую скоординированность в деятельности отдельных компонентов, возрастание числа сбоев, непродуктивных затрат и т.п., а также рост частоты различ­ных поломок, что, в конечном счете, увеличивает скорость изнашиваемости и гибели самого оператора.

Не правда ли, эта картина очень напоминает симптомо-комплекс ускоренной деградации человека, утратившего «цель жизни», например, преждевременно «выставленного на пенсию» или убедившегося в бессмысленности ранее увлекавшей его деятельности? Этот феномен хорошо известен в физиологии еще со времени И.М.Сеченова [10] и А.А.Ухтомского [11]. Общность субъективных аспектов КПД целенаправленного действия для самых разных объектов, способных такие дейст­вия совершать, далеко не случайна.

Принципы функционирования информационных систем

Сказанное выше позволяет сформулировать два фундамен­тальных принципа функционирования любой информационной системы в любых подходящих для этого обстоятельствах. Эти принципы можно задать в форме неравенств:

                              (21)

Иными словами, для того, чтобы какой-либо оператор (или информационная система в целом) мог успешно функционировать в некоторой среде обитания, ни его потребность в ресурсах, ни скорость наработки побочных продуктов не должны достигать продуктивности и кондиционирующей мощности этой среды.

Справедливость этих принципов явствует из рассуждений «от противного». В случае dR/dt ≥ θ ресурсы среды обитания будут иссякать, а в случае dw/dt ≥ ø все растущее загрязнение среды обитания сделает ее в конце концов непригодной для функцио­нирования в ней данной информационной системы.

Сказанное остается в силе и в тех случаях, когда данная среда обитания разрабатывается разными информационными системами, точнее,   информационными   системами   или   операторами   разных типов. Все другие операторы по отношению к оператору некото­рого данного типа можно рассматривать как дополнительные размерности соответствующей среды обитания, как присущие ей «экологические факторы». Это позволяет формально описывать любые виды взаимодействия операторов разных типов, зависящие от их численности, их влияния на среду обитания и друг на дру­га. При этом, сколько бы ни было типов информационных сис­тем, их воздействие на среду обитания может со временем только возрастать, ограничиваясь условиями dR/dt < θ и dw/dt < ø. Но воздействие это может быть двух видов неупорядоченное и упорядоченное.

Из сказанного выше следует, что долго продолжающееся не­упорядоченное воздействие, сводящееся к накоплению в среде побочных продуктов, всегда и неизбежно будет приводить к уменьшению КПД разрабатывающих эту среду информационных систем. Все большее количество ресурсов, потребляемых опера­торами этих систем, будет идти на разрушение окружающей их среды, что справедливо для информационных систем любых ви­дов сложности. Уменьшение КПДQ всегда и неизбежно будет приводить к нарастанию неупорядоченности в среде обитания и сопутствующему ему разладу, дисгармонии между операторами и этой средой, а также между операторами разных типов.

Упорядоченное, или, точнее, упорядующее воздействие на среду обитания можно обеспечить лишь одним путем путем постоянного повышения КПД операторов, независимо от того, какие изменения это вносит в сами операторы. Только в этом случае «отходы производства» информации будут принимать все более определенную форму, где доминировать будут «отрабо­танные» операторы наиболее быстро размножающихся инфор­мационных систем, а выход случайных побочных продуктов бу­дет минимизироваться. Но в таком случае «отходы производст­ва» информации будут уже не столько разрушать среду обита­ния, сколько стабилизировать ее на новом уровне, добавляя к ней одно или несколько новых измерений. Размерность среды обитания будет возрастать.

Таким образом, повышение КПДQ, при сохранении неравенств dR/dt < θ и dw/dt < ø, обязательное требование, или, точнее, условие существования и развития любых информационных сис­тем. Термины «существование» и «развитие» здесь можно рас­сматривать как синонимы, ибо любая совокупность стабильных операторов неизбежно обречена на гибель, а возрастающая их популяция может существовать, лишь постоянно изменяясь в направлении повышения КПДQ.

Итак, раз возникнув и создав кодируемый ею оператор, любая информация  обречена либо  на гибель, либо  на эволюцию в направлениях, удовлетворяющих сформулированным выше принципам. Это, по существу, автогенез информации, неизбежность которого строго следует из ее природы. Любую информацию, как мы знаем, можно охарактеризовать количе­ством и семантикой. Изменчивости подвергается и то, и дру­гое. Требование повышения КПДQ означает, по существу, ми­нимизацию количества информации при сохранении ее семан­тики, а необходимость адаптироваться к возрастанию среды обитания, происходящему в результате деятельности операто­ров, выдвигает новые требования уже по отношению к ее се­мантике. Если информация такова, что она способна изме­няться в этих двух направлениях, она будет продолжать раз­виваться, а следовательно, и существовать. Если же, в силу своей специфики, какая-либо информация оказывается неспо­собной удовлетворять этим двум условиям, она будет обречена на деградацию (уменьшение КПДQ) и вымирание.

Критические ситуации

При продолжительном функционировании каких-либо опе­раторов QI в среде их обитания s и тем более, при их «рас­ширенном воспроизводстве» (когда Z = Q, I) может наступить ситуация, когда dR/dt постепенно начнет приближаться к θ, а dw/dt − к ø. Мы уже отмечали, что загрязнение среды обита­ния сверх некоторого предела (при dw/dt > ø) должно влечь за собой уменьшение ее продуктивности, что, в свою очередь, скажется на снижении кондиционирующей мощности, и т.д. С того момента, когда начнет действовать такая «прямая связь» и оба важнейших показателя состояния среды, т.е. θ и ø, рез­ко пойдут вниз, ситуацию можно называть критической. Кри­тические ситуации, как правило, еще обратимы.

Таким образом, критические ситуации могут провоциро­ваться двумя «пусковыми событиями»: излишним потреблени­ем ресурсов R и/или избыточным поступлением в среду оби­тания побочного продукта w. To и другое может быть след­ствием как «перенаселения» среды обитания из-за избыточ­ного роста заселяющих ее операторов, так и появления «мутантной» субпопуляции операторов с гипертрофированной потребностью в ресурсах или избыточным образованием по­бочного продукта. Итогом всегда окажется уменьшение продуктивности и/или кондиционирующей мощности среды оби­тания, а следовательно, и торможение, вплоть до полного подавления, целенаправленной деятельности заселяющей ее популяции операторов.

Стратегия выхода из критических ситуаций

Все стратегии выхода из критических ситуаций функциони­рующих информационных систем, периодически возникающие в результате их деятельности в этой или иной среде обитания, должны быть, в конечном счете, направлены на усиление нера­венств dR/dt < θ и dw/dt < ø. Осуществляться это может не­сколькими способами, а именно: уменьшением количества ресур­сов, используемых на один цикл целенаправленного действия; уменьшением количества побочного продукта, приходящегося на один такой цикл; увеличением продуктивности среды обитания; увеличением кондиционирующей мощности этой среды; возрас­танием ее надежности. Возможны, конечно, и различные комби­нации этих пяти способов.

Выйти из критической ситуации можно лишь одним путем: путем такого изменения информации I, кодирующей очередное поколение операторов QI чтобы осуществилось хотя бы одно из пяти перечисленных выше условий. При этом изменение информации должно приводить в итоге либо к увеличению КПД новых операто­ров, либо к увеличению размерности их пространства режимов. Рассмотрим коротко возможные последствия того и другого.

Повышение КПДQ при сохранении количества ресурсов, тре­бующихся для осуществления только одного события Z, означа­ет, по существу, уменьшение как dR/dt, так и dw/dt, приходящихся на один цикл целенаправленного действия; при этом реа­лизуется первый и второй из перечисленных выше пяти спосо­бов. Это стратегия увеличения эффективности использования субстрата данной среды обитания.

Увеличение размерности пространства режимов, комплемен­тарного данной информации, есть не что иное, как появление у операторов, кодируемых этой информацией, способности ис­пользовать в качестве ресурсов все большее число компонентов, слагающих среду их обитания. Выше уже было сказано, что увеличение размерности пространства режимов неизбежно со­провождается повышением как продуктивности, так и конди­ционирующей мощности соответствующей среды обитания, а значит, и ее надежности. Здесь, следовательно, реализуются три из перечисленных выше способов выхода из критических ситуа­ций. Такую стратегию можно назвать стратегией расширения среды обитания.

Так мы выделили две основные стратегии выхода информа­ционных систем из критических ситуаций стратегию повыше­ния эффективности использования субстрата данной среды обитания и стратегию расширения самой среды обитания. Возмож­ны, конечно, и комбинации этих стратегий.

Обе стратегии могут реализоваться только благодаря измен­чивости информации, кодирующей свои информационные систе­мы, а процесс выхода из критических ситуаций может растяги­ваться на периоды времени, требующиеся для смены по мень­шей мере одного поколения информационных систем. Если же критическая ситуация развивается с большей скоростью и ни одна из названных стратегий не успевает с ней справиться, то наступает катастрофа.

Катастрофы

В отличие от критических ситуаций, когда dR/dt θ и/или dw/dt ø, ситуацию можно назвать катастрофической, когда dR/dt > θ и dw/dt > ø. Быстрое превышение количества потреб­ляемых ресурсов над продуктивностью среды обитания, т.е. над скоростью их пополнения, а также превышение скорости накоп­ления побочных продуктов над возможностью их кондициониро­вания, будут неизбежно приводить к разрушению (или, что то же самое, резкому изменению) самой среды обитания s. Совершенно ясно, что разрушение или резкая трансформация среды обитания, наступающие в течение одного цикла целенаправленного действия, неизбежно повлечет за собой прекращение деятельности, а затем и гибель заселяющих ее информационных систем. Катастрофы, в отличие от критических ситуаций, имеют необратимый характер.

Можно представить себе две причины, порождающие катаст­рофы: продолжающееся активное функционирование операторов в уже наступившей критической ситуации (а) и внезапное резкое увеличение dR/ dt и/или dw/dt в ситуации, далекой от критиче­ской (b). В обоих случаях последствия будут сходными и в равной мере губительными для спровоцировавших катастрофу информационных систем.

Иерархия целенаправленных действий

Можно утверждать, что для нормально функционирующих информационных систем конечным итогом успешного осуществ­ления целенаправленного действия любым из составляющих их операторов будет повышение вероятности воспроизведения ко­дирующей этот оператор информации. Достигается это, как правило, путем множества соподчиненных целенаправленных действий, выполняемых разными операторами, так что конечная цель деятельности каждого оператора далеко не всегда очевид­на. Кроме того,  соподчиненность информации разных уровней организации также не всегда однонаправлена, и не всегда про­стейший анализ здесь поможет вскрыть истинную иерархию. Так, например, «поведенческие реакции» или «таксисы» одно­клеточных организмов подчинены цели воспроизведения генети­ческой информации, их кодирующей, а у социальных многокле­точных животных функция размножения подчинена цели воспроизведения информации, кодирующей их сложные поведенче­ские реакции.

Однако независимо от уровня иерархии, занимаемого каждой данной информацией и ее оператором, вышеприведенное утвер­ждение сохраняет свою универсальность. Если из-за изменений R или w величина КПДQ в чреде повторяющихся целенаправленных действий начнет уменьшаться, это рано или поздно, но неизбеж­но, приведет к изменению, исчезновению или консервации ин­формации, кодирующей данную информационную систему. Отсю­да неизбежность оптимизации по R и w деятельности жизнеспо­собных в данных условиях информационных систем и развития специальных, соподчиненных, информационных программ и опе­раторов, «отслеживающих» и контролирующих эти параметры.

Сказанное выше чрезвычайно важно, ибо связывает воедино судьбу информации I, эффективность работы кодируемого ею оператора Q, и специфику пространства режимов s. Связь эта реализуется через соотношения между количеством В и ценно­стью С информации, с одной стороны, ее эффективностью А и КПДQ, с другой, а также через соотношения между характери­стиками оператора, в первую очередь R и w, и продуктивно­стью θ, кондиционирующей мощностью ø и надежностью среды обитания, включающей в себя пространство режимов данной информационной системы.

Обобщение понятия «информационная система»

Выше мы постарались показать, что информация есть то, на основании чего может возникнуть оператор, выполняющий при определенных внешних условиях определенные целенаправленные действия. Для того, чтобы осуществлять эти действия, оператор должен иметь более или менее выраженные рецепторные и аффекторные компоненты. Если эти компоненты структурно обо­соблены и соединены между собой так, что они составляют единый функциональный комплекс, такой оператор обычно на­зывают кибернетическим устройством. Сигналы или воздействия, поступающие извне и «воспринимаемые» этим устройством или посылаемые изнутри и «включающие» его аффекторные компо­ненты, конечно, сами по себе не являются  информацией  и  никакой информации не несут (хотя и могут быть использованы для создания дополнительной информации, если устройство на это способно). Этим такие воздействия принципиально отлича­ются от физических событий или объектов, служащих или ис­пользуемых для передачи или хранения информации, по кото­рым такая информация может быть реконструирована.

Мы видели также, что сама по себе информация пассивна. Она не может ни осуществлять целенаправленные действия, ни создавать кодируемые ею операторы, ни воспроизводить саму себя. Чтобы создать оператор или воспроизвести кодирующую его информацию, требуются специальные устройства («маши­ны»), материал и энергия. Мы видели, что целью деятельности, кодируемой любой информацией, является в конечном счете ее воспроизведение. Поэтому дискретной информационной системой можно называть только такую совокупность информации, реа­лизующих устройств и операторов, которая может обеспечивать воспроизведение этой информации. Естественно, что воспроизве­дение информации может осуществляться лишь при подходящих для этого условиях «среды обитания» данного информационного устройства. То же относится, конечно, и к построению операто­ров, реализующие устройства могут их «создавать», считывая соответствующую информацию, только при соответствующих внешних условиях.

На первый взгляд может сложиться впечатление, что реали­зующее устройство и оператор это одно и то же. На самом деле между ними есть две большие разницы. Во-первых, реали­зующее устройство может строить только оператор и ничего более. Во-вторых, реализующее устройство не в состоянии осу­ществлять свою функцию без постоянного контакта с информа­цией, а оператор может или, точнее говоря, именно так и функционирует. В этом и заключается потенциальная возмож­ность от общения оператора от информации (когда он уже по­строен) и независимого его функционирования, что исключено для реализующего устройства.

Так мы построили схему обобщенной информационной сис­темы. Она всегда и неизбежно должна состоять из четырех блоков: блока хранения информации, реализующего устройства, оператора (одного или нескольких) и управляющего блока. Для того, чтобы такая система возникла, достаточно двух первых блоков. Для того, чтобы совершилось конечное действие (т.е. воспроизведение информации), достаточно первого и третьего блоков. Но ни один из этих блоков не может сам по себе обеспечивать полное осуществление целенаправленного действия, хотя каждый из них, в том числе и управляющий (или коорди­нирующий), может сохраняться в бездеятельном состоянии сколь угодно долго, точнее столь долго, сколько позволит слагающий его материал и окружающие условия.

Очевидно, что наша информационная система полностью со­ответствует блок-схеме универсального автомата фон Неймана (см. главу 3).

Теперь представим себе несколько мыслимых вариантов ор­ганизации информационных систем. Информационной системой 1-го рода будем назвать ту, в которой блок хранения информа­ции, а в простейшем случае просто ее носитель выполняет одновременно функции управляющего и реализующего устройст­ва, а также функцию оператора. Развитой формой этой системы будет та, в которой эти блоки структурно и функционально разделены, но пространственно составляют единое целое. Отсю­да естественно совершается переход к информационной системе 2-го рода, когда указанные четыре блока могут существовать раздельно в пространстве и времени, но связаны в единое целое функционально. Ниже мы покажем, что в своем развитии ре­альные информационные устройства, действительно, проходят все эти стадии.

Возможность существования простейшего варианта информа­ционной системы 1-го рода снимает основную логическую труд­ность анализа проблем возникновения информации. Действительно, можно утверждать, что возникнуть информация могла лишь в форме фиксации на таком носителе, который по приро­де своей мог исполнять также роли реализующего устройства и оператора. Можно также утверждать, что иных типов информа­ционных систем, помимо перечисленных выше, быть не может. Тем самым определяется генеральное направление динамики ин­формации: от простейших информационных систем 1-го рода к развитым информационным системам 2-го рода. Из последую­щего изложения будет ясно, что динамика информационных систем 1-го рода представляет собой не что иное, как биологиче­скую эволюцию, а динамика информационных систем 2-го рода эволюцию человеческих сообществ.

Литература

1.    Колмогоров А. Н.  Теория  информации и теория алгоритмов. М.,«Наука»,  1987.

2.    Кадомцев Б. Б. Динамика и информация. М.: Ред. ж. УФН, 1997.

3.    Нейман фон Дж. Общая и логическая теория   автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.,   Гос.  изд.   физ.-мат.лит., 1960, с.59.

4.     Меллер Г. Ген как основа жизни. В кн.: Избр. работы по генети­ке, М.-Л., Огизсельхозгиз, 1937. С. 148-177.

5.     Тьюринг А.   Может ли  машина  мыслить?  М.,   Гос.   изд.   физ.-мат.лит., 1960.

6.     Шеннон К. Математическая теория связи. В кн.: Работы по теории
информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-332.

7.  Кольцов Н. К. Организация клетки. М., Биомедгиз. 1936.

8.     Блюменфельд Л. А. Проблемы биологической физики. М.,  «Наука»,1977.

9.  Корогодин В. И. Биофизика, 1983, т.28, в.1, С. 171-178.

10.    Сеченов И. М. Рефлексы головного мозга. Петербург, 1866.

11.    Ухтомский А. А. Доминанта. М.-Л., Изд. АН СССР, 1966.

 

Глава четвертая

ПРИНЦИП  ПОРИЗМА

Формулировка принципа поризма

Чтобы несколько отдохнуть от абстрактных построений, свя­занных с анализом свойств информации и принципов функцио­нирования информационных систем, рассмотрим старое, но крайне редко используемое в науковедении понятие поризм.

В нашу литературу понятие «поризм» ввел философ Б. С. Грязнов [1]. «В античной литературе, писал он, поризмом называ­ли утверждение, которое получалось в процессе доказательства теоремы или решения задачи, но получалось как непредвидимое следствие, как промежуточный результат. Хотя поризм получается как логическое следствие, но, поскольку он не является целью по­знавательной деятельности, для исследователя он может оказаться неожиданным» (стр. 62).

Понятие это можно определить и несколько иначе. Так, поризмом можно называть такое утверждение, сформулированное в ходе реше­ния какой-либо задачи, которое по содержанию своему охватывает намного более широкий круг явлений, нежели тот, к которому эта задача относилась. Тем самым формулировка поризма оказывает­ся значительно более ценной, чем решенная с его помощью и, тем самым, вызвавшая его к жизни задача. Поэтому поризм с полным правом можно называть «счастливой находкой».

Феномен поризма может иметь место не только в рассудоч­ной человеческой деятельности, но и в царстве живой природы. Пусть некоторая популяция организмов начинает испытывать давление со стороны какого-либо нового фактора. «Злобой дня» становится адаптация к этой новой ситуации. Задача по адап­тации может решаться, как правило, несколькими разными спо­собами. Ряд решений может оказаться равноправным, и тогда идет дифференциация популяции на субпопуляции, дающие на­чала подвидам и т.д. Однако одно из таких решений, не имеющее в данной ситуации особых преимуществ по сравнению с другими, может быть связано с такими изменениями структу­ры и функций организмов, которые открывают новые пути для их дальнейшего развития, в том числе и в направлениях широ­ких идиоадаптаций или араморфозов. Такие изменения генети­ческой информации также можно относить к поризмам.

Теперь мы можем сформулировать «принцип поризма», а ниже постараемся показать, что принцип этот играет одну из главных ролей в динамике всех видов информации. Принципом поризма будем называть следующее утверждение.

Любое решение любой задачи может оказаться пригодным и для решения других задач, к первой прямого отношения не имеющих. Если решаемые таким образом задачи относятся к некоторому множеству, включающему первую задачу как част­ный случай, такое решение будем называть поризмом.

Принцип поризма замечателен тем, что подчеркивает значе­ние такого возможного решения какой-либо задачи, которое порождает множество разного рода задач, допускающих такие же решения, т.е. приводит к формулированию новой пробле­мы, уже имеющей свое решение. Рассмотрим несколько приме­ров поризма в науке и в живой природе.

Примеры из области развития науки

В уже упоминавшейся работе Б. С. Грязнова приведено два примера поризма в развитии науки.

Один пример относится к Н. Копернику. Согласно распро­страненному мнению, задача, решение которой привело Н. Ко­перника к утверждению факта вращения Земли, имела куда ме­нее грандиозный характер. Это была задача точного исчисления дня Пасхи, т.е. первого воскресенья после первого полнолуния, наступающего после дня весеннего равноденствия. Исчисление дня весеннего равноденствия проводилось еще Птолемеем, но ко времени Н. Коперника, т.е. к началу XVI века, выявились суще­ственные расхождения до 10 суток между такими расчетами и действительным сроком его наступления. В поисках причин, вызывающих это расхождение, Н. Коперник изменил неподвиж­ную систему отсчета вместо Земли, принимаемой за начало координат Птолемеем, он в качестве такого взял систему не­подвижных звезд. Следствием такового изменения координатной сетки явилась необходимость постулировать вращение Земли как вокруг собственной оси, так и вокруг Солнца, что Н. Коперник и сделал. Таким образом, первоначально Н. Коперник не зани­мался проблемой устройства Вселенной, а решал задачу нахож­дения точки весеннего равноденствия. Утверждение о вращении Земли появилось у Н. Коперника как промежуточное умозаклю­чение в ходе решения этой задачи.

Другой пример, приводимый Б. С. Грязновым, относится к открытию М. Планком квантируемости энергии. Известно, что постулат о существовании квантов энергии Планк сформулировал вынужденно, получив эмпирическую формулу, сводящую за­кон излучения для коротких волн к формуле Вина, а для длин­ных волн к формуле Рэлея. Для объяснения найденной им формулы М. Планк должен был приписать физический смысл входящим в нее константам. Одной из этих констант и оказа­лась h - постоянная Планка. Из этой формулы следовало, что энергия всех систем, совершающих гармонические колебания, квантуется порциями E = nhv, а также что если даже и сущест­вуют какие-либо другие виды энергии, то они не могут взаимо­действовать с веществом, а следовательно, и не могут быть об­наружены. Замечательно то, что сам М. Планк, будучи творцом квантовой теории, еще много лет не мог принять всех следую­щих из нее выводов, в том числе и реальности существования квантов энергии.

К этим примерам можно добавить еще один, и этого, пожа­луй, будет достаточно для иллюстрации роли поризма в разви­тии научных идей. Это история создания И. Ньютоном дифференциального исчисления. Метод дифференциального исчисления (метод «исчисления флюксий») И. Ньютон, как известно, изобрел в 1665 г., когда ему было всего 22 года, но долго его не пуб­ликовал, пользуясь им лишь для решения конкурсных матема­тических задач. Лишь много позже, после выхода соответст­вующих статей Г. Лейбница, он вступил с ним в жаркую поле­мику, отстаивая свой приоритет. Не ясно, осознавал ли И. Нью­тон с самого начала общее значение этого метода или рассмат­ривал его лишь как ординарный, хотя и новый математический прием.

Можно с уверенностью утверждать, что случаев, подобных описанным выше (хотя, возможно, и не такого масштаба), в ис­тории науки достаточно много, и аналогичные примеры можно привести из разных областей знания. Но вот что замечательно: ситуаций, подобных принципу поризма в развитии идей, много и в живой природе, хотя до сих пор, кажется, на это не обра­щалось должного внимания.

Примеры из области биологии

Как уже упоминалось, в биологии поризмами можно назы­вать такие изменения организации живых организмов, которые, решая задачи «сегодняшнего дня», в то же время открывают новые возможности для их дальнейшего развития. К сожалению, точно реконструировать каждый такой случай весьма затрудни­тельно (о поризмах, произошедших давно,   мы можем судить лишь по их результатам, а поризмы, которые произошли не­давно, еще не успели себя выявить). Поэтому здесь нам придет­ся пользоваться в значительной мере лишь правдоподобными догадками.

К явным поризмам, пожалуй, можно отнести случаи повы­шения надежности геномов при переходах от низших кариотаксонов к высшим [2]. Действительно, частота возникновения губительных изменений генетической информации (т.е. летальных мутаций) в общем случае должна быть пропорциональной от­ношению М·К-1, где М - информационная емкость или число оснований в нуклеиновой кислоте, а К надежность генетиче­ского аппарата. Таким образом, при постоянстве К частота ле­тальных мутаций будет возрастать прямо пропорционально М информационной емкости генетического аппарата. При достиже­нии М некоторого критического значения, угрожающего жизне­способности популяции, выход из этой ситуации становится жизненно важным для данных обитателей данной среды. Реше­ния этой задачи могут быть самыми разными, в том числе уменьшение размеров генетических структур, развитие систем, предотвращающих губительное действие помех, а также увели­чение К надежности организации генетического аппарата. По­следнее решение повышение К не только удовлетворяет требова­ниям «злобы дня», но и открывает возможности для дальнейшего увеличения информационной емкости генетических структур, т.е. для увеличения числа оснований в нуклеиновых кислотах, по крайней мере, до тех пор, пока мутационное давление опять не возрастет до критического значения. На основании результатов радиобиологических экспериментов [3] можно думать, что в ходе эволюции повышение К происходило не менее трех раз, причем каждый раз это осуществлялось путем усложнения структурной организации генома, что переводило живые организмы из 1-го кариотаксона (К = 1·102эВ) во 2-й (К = 1,1·10s. эВ), из 2-го в 3-й (К = 4,6·103 эВ), а из 3-го в 4-й (К=6,1·106эВ). Это сопро­вождалось увеличением информационной емкости генетического аппарата клеток, от первичных вирусоподобных организмов (1-й кариотаксон) до высших эукариот (4-й кариотаксон) примерно в 105106 раз от 105— 107 до 10111012 оснований. Такое возраста­ние информационной емкости генома, в свою очередь, служило основой для прогрессивной эволюции живых организмов, так как позволяло не только накапливаться в избытке генетической информации, но и периодически уменьшать мутационное давле­ние путем «сброса» более или менее значительных фрагментов генетического аппарата в ходе приспособления к различным экологическим нишам [4]. Здесь, следовательно, увеличение на­дежности генома, решая задачу выхода биологических объектов из-под мутационного пресса, в то же время открывало новые пути для дальнейшего развития живых организмов в направле­нии все большего повышения их организации. Это, конечно, яркий пример поризма в биологии.

Другим примером может служить возникновение оогамии, произошедшее еще на стадии одноклеточных эукариот. Как из­вестно (см., напр. [5, 6]), этим организмам присуще огромное разнообразие форм полового размножения изогамия, гетеро­гамия разной степени выраженности и истинная оогамия, когда женские особи формируют богатые цитоплазмой, крупные и не­способные самостоятельно перемещаться яйцеклетки, а мужские многочисленные мелкие, почти лишенные цитоплазмы, подвиж­ные сперматозоиды. По-видимому, в экологических нишах, засе­ленных такими организмами, разные способы размножения в равной мере удачно решали задачу воспроизведения и мультип­ликации кодирующей их генетической информации, почему они и сохранились до сих пор. Но лишь один из этих способов оогамия содержал в себе потенциальную возможность форми­рования многоклеточности. Для этого достаточно было возник­нуть мутации (которая не могла бы проявиться у организмов, не обладающих оогамией), препятствующей расхождению клеток -продуктов первых дроблений оплодотворенной яйцеклетки, что­бы было положено начало существования первым примитивным многоклеточным организмам, а последующая морфофизиологическая дифференциация таких клеток могла уже окончательно закрепить этот признак. Многоклеточность, в свою очередь, явилась предпосылкой возникновения высших растений, грибов и животных, а также человека, т.е. предпосылкой формирования структур, сделавших возможность появления поведенческой, а затем и логической информации. Поэтому возникновение оога­мии также может служить ярким примером поризма в биологи­ческой эволюции.

Третий, и последний, пример, который мы хотели бы при­вести, это возникновение фотосинтеза [7]. Примитивный фото­синтез, еще не связанный с окислением молекулы воды и выде­лением кислорода, возник, по-видимому, около 3,5 млрд. лет назад, у прокариот, являвшихся предками современных пурпур­ных и зеленых бактерий. Эта форма фотосинтеза явилась одним из решений задачи энергообеспечения бурно развивающегося то­гда мира прокариот, относящихся ко 2-му кариотаксону, наряду с такими решениями этой же задачи, как хемосинтез и анаэробный гликолиз. В результате длительной эволюции фотосинтезирующего аппарата около 3 млрд. лет назад у некоторых групп прокариот (по-видимому, предков ныне живущих циано-бактерий) сформировался механизм, способный окислять воду, и в первобытную атмосферу Земли начал поступать кислород. Энергетические преимущества, связанные с оксигенным фотосин­тезом, позволили не только успешно размножаться его облада­телям, но и привели около 2 млрд. лет назад к формированию кислородсодержащей атмосферы и трансформации анаэробной биосферы в аэробную, со всеми вытекающими отсюда последст­виями, в том числе формированием и широким расселением многоклеточных эукариот, включая высшие растения и предков современных таксонов животных. В данном случае такая «счаст­ливая находка», как оксигенный фотосинтез, не только чрезвы­чайно обогатила возможности дальнейшего развития обладаю­щих ею организмов, но оказала решающее влияние на будущее всего населения нашей планеты, приведя к формированию еди­ной, охватывающей весь Земной шар, богатой кислородом ат­мосферы. Все последующее развитие жизни на Земле, в том числе и формирование человеческих цивилизаций, протекало уже в рамках аэробной биосферы.

Принцип поризма и полипотентность информации

Рассмотрим теперь принцип поризма с позиции тех свойств, которые присущи информации.

Прежде всего, вспомним свойство полипотентности (глава 2) возможность использовать оператор, кодируемый данной инфор­мацией, в разных ситуациях и для достижения разных целей. Важнейшим следствием этого свойства было, как мы помним, ут­верждение, что как ценность, так и эффективность любой инфор­мации может быть задана только в форме распределения на множестве пар «ситуация-цель». Мы отмечали также, что множе­ство это никогда не может быть полным никогда априори нельзя предугадать, для какой еще пары «ситуация-цель» ценность данной информации окажется больше нуля. Нетрудно видеть, что принцип поризма является еще одним следствием полипотентности информации этим термином объединяются те случаи, когда реализация свойства полипотентности информации приводит к переходу кодируемых ею информационных систем в пространства режимов большей размерности, освоение которых сопровождается дальнейшим увеличением количества информации и/или возникно­вением ее новых, иерархически более высоких, форм. Таким об­разом, поризмы это лишь определенный класс из множества возможных проявлений свойства полипотентности.

Вряд ли необходимо подробно анализировать соотношение принципа поризма с   такими вариантами реализации полипотентности, которые в области биологической эволюции получили названия идиоадаптаций и араморфозов [8]. Отметим лишь, что оба эти варианта развития информационных систем будут рассмот­рены в главе 5, посвященной динамике информации. Понятия, охватываемые этими терминами, а также терминами «полипотентность» и «поризм», весьма широки, частично перекрываются и, строго говоря, относятся к явлениям разных классов. Полипотентность, как мы видели, это одно из свойств информа­ции, поризм это определенный класс частных случаев реали­зации полипотентности, т.е. относится скорее к особенностям операторов, а не информации, а идиоадаптаций и араморфозы – результаты реализации свойства полипотентности в операторы и скорее приложимы к описанию определенных структур опера­торов, нежели свойств кодирующей их информации.

Литература

1.     Грязное Б. С. Природа, 1977, №4, С. 60-64.

2.     Корогодин В. И. Природа, 1985, №2, с. 3-14.

3.     Корогодин В. И. Радиобиология, 1982, т. 22, в.2, С. 147-154.

4.     Шальнов М. И. Радиобиология, 1977, т. 17, в.5, С. 652.

5.     Курсанов Л. И. Комарницкий Н. А., Флеров Б. К. Курс низ­ших растений. М.-Л., Госмедгиз, 1933.

6.     Райков И. Б. Ядро простейших. Л., «Наука», 1978.

7.     Холл Д., Рао К. Фотосинтез. М., «Мир», 1983.

8.     Северцов А. Н. Морфологические закономерности эволюции. В кн.: Собр.соч., т.V, М.-Л., Изд. АН СССР, 1949.

 

Глава пятая

ДИНАМИКА ИНФОРМАЦИИ

Возникновение генетической информации

Из сказанного выше следует, что проблема возникновения самовоспроизводящихся информационных биологических систем, вместе с кодирующей их информацией, есть не что иное, как проблема происхождения жизни. Действительно, как писал К. X. Уоддингтон [1], «Система может быть названа живой, если в ней закодирована передаваемая по наследству информация, если эта информация иногда претерпевает изменения и если из­мененная информация также наследуется» (стр.13).

Как уже отмечалось (см. главу 3), идея о том, что живые объ­екты представляют собой такое единство генетических (т.е. ин­формационных) и негенетических компонентов, что последние предназначены для обеспечения воспроизведения первых, была сформулирована Г. Меллером [2]. Тем самым были поставлены три взаимосвязанных вопроса: что такое генетические структуры? как они могли образоваться? как они контролируют синтез структур не­генетических? Первый и третий вопросы сейчас, можно считать, решены (см., напр., [3]). Наследственные структуры представляют со­бой молекулы РНК или ДНК, в которых генетическая информа­ция записана последовательностью четырех оснований, а синтез негенетических структур осуществляется через промежуточный этап матричный синтез т-РНК и и-РНК с участием специализи­рованных устройств рибосом. Остается ответить на вопрос о том, могли ли и как именно спонтанно возникнуть первичные молекулярные носители информации (а), информация, в них со­держащаяся (б), а также реализующие ее устройства (в). Все ны­нешние попытки решить проблему происхождения жизни враща­ются, по существу, вокруг этих трех вопросов.

Как было упомянуто в предыдущих главах, новая информа­ция может быть создана в процессе естественного дарвиновско­го отбора. Остановимся на этом подробнее. Какие свойства яв­ляются необходимыми для отбора и эволюции?

Система, обладающая способностью к самоотбору, должна стабилизировать свои определенные структуры, отбирая наиболее благоприятные варианты среди распределения возникающих конкурентов, имеющихся в каждый момент времени. В такой системе должен быть заложен элемент обратной связи, осуществляющий закрепление устойчивости наиболее выгодных вариан­тов. Необходимое свойство обратной связи это способность к автокатализу, т.е. самовоспроизведению.

Необходимыми свойствами для дарвинского поведения на молекулярном уровне являются:

1. Метаболизм - как образование, так и разложение молекулярных видов должны быть независимы друг от друга и спонтанны; отбор должен действовать только на промежуточные   состояния, которые образуются из высокоэнергетических предшественни­ков  и  превращаются  в  низкоэнергетические отходы. Система должна использовать освобождающиеся энергию и  вещество.
Система должна быть далека от равновесия.

2.        Самовоспроизведение   -   способность  инструктировать свой собственный синтез.

3. Мутабильность. Точность самовоспроизведения всегда ограни­чена хотя бы из-за теплового  шума. Ошибки копирования основной источник новой  информации.  Но для темпа мутаций существует пороговое значение, при котором скорость эволюции максимальна и не может быть превышена без потери всей информации.

Здесь мы должны отметить новое, по сравнению с критериями эволюции добиологического периода, требование самовоспроизве­дения, т.е. автокатализа. Дарвиновский отбор таких самореплици­рующихся единиц гарантирует эволюцию информации, будь то короткие цепочки нуклеиновых кислот или сложные организмы.

Первыми самовоспроизводящимися единицами были короткие цепочки нуклеиновых кислот. Они воспроизводимо реплициро­вали цепи длиной только 50-100 нуклеотидов [4]. Для дальнейшей эволюции, увеличения точности копирования и количест­ва информации требовались катализаторы, которые тоже должны были воспроизводиться (аппарат трансляции). Первыми самовоспроизводящимися структурами нуклеиновых кислот с ус­тойчивым информационным содержанием были молекулы типа т-РНК. Для самой простой системы аппарата трансляции требу­ется количество информации на порядок больше, чем в этих первичных молекулах т-РНК. Аппарат трансляции должен был включать несколько таких единиц, имеющих сходные функции, но разную специфичность. Этого нельзя было достичь посредст­вом сочленения их в одну большую единицу (из-за порога ошибок) или в компартмент (из-за конкуренции между ними). Это было возможно лишь при образовании функциональных связей между всеми самовоспроизводящимися единицами.

В 70-х годах М. Эйген с сотрудниками [5] разработал и опубли­ковал ряд работ, в которых показал, что дальнейшее накопле­ние и эволюция информации возможны на основе гиперциклов.

Гиперцикл это средство объединения самовоспроизводящихся единиц в устойчивую систему, способную к эволюции. Гиперцикл построен из автокатализаторов, или циклов воспроизведения, которые связаны посредством циклического катализа, наложен­ного на систему. Гиперцикл основан на нелинейном автокатали­зе (второго или более высокого рангов), который обязательно включает связи типов стимуляции, репрессии и дерепрессии. Это и есть то отличительное свойство живых организмов, о котором пишет Н. Н. Моисеев, только живые организмы имеют отрицательные обратные связи [6]. Никакая другая организация (компартмент, нециклические цепи) не способны обеспечить:

-       конкуренцию   в   популяциях   самореплицирующих   единиц дикого типа, что гарантирует сохранение их информации;

-       сосуществование   нескольких   популяций   самореплицирующихся единиц и популяций их мутантов;

-       объединение этих  единиц в  систему,  способную  к  эволюции,   где   преимущество   одной   единицы   может   быть   использовано всеми членами системы.

Для существования каталитического цикла достаточно, чтобы один из интермедиатов был катализатором для одной из после­дующих реакций. Каталитический цикл, имеющий биологическое значение, репликация одноцепочечной РНК [5, 7]. Интермедиаты (плюс- и минус- цепи) участвуют в цикле как матрицы для своего взаимного воспроизведения. Нуклеозидтрифосфаты явля­ются высокоэнергетическим строительным материалом. Катали­тический гиперцикл состоит из самореплицирующихся единиц с двойными каталитическими функциями: в качестве автокатализатора интермедиат способен инструктировать свое собственное воспроизведение, а также оказывать каталитическое воздействие на воспроизведение следующего интермедиата.

Одним из уникальных свойств гиперциклов является их се­лекционное поведение. Отбор гиперцикла «раз и навсегда». В обычной дарвиновской системе благоприятные мутанты имеют селективное преимущество и могут размножаться, их способ­ность к росту не зависит от размера популяции. В гиперцикле селективное преимущество является функцией численности попу­ляции из-за существенно нелинейных свойств гиперциклов, и уже существующий гиперцикл не может быть заменен «нович­ком», так как новый вид всегда появляется сначала в количест­ве одной (или нескольких) копий. Это свойство может объяс­нить универсальность генетического кода. Этот код окончатель­но установился не потому, что был единственно возможным, а потому, что здесь работал механизм «раз и навсегда» [8].

Предложенная модель гиперцикла связана с молекулярной организацией примитивного аппарата репликации и трансляции.

Гиперциклическая организация обусловливает стабилизацию и адаптацию всех компонентов системы. Она усложняется в ходе эволюции путем мутаций и дупликаций генов.

Образование аппарата трансляции открыло путь к развитию функции гетерокатализа и биологической эволюции. Первыми живыми информационными системами были первые клетки прокариот. В информационных системах живых клеток установи­лись новые законы естественного дарвиновского отбора и новые типы информации.

Снова обратимся к двум не зависящим друг от друга свойст­вам аутокатализу, т.е. каталитическому синтезу самого себя, и гетерокатализу, т.е. каталитическому синтезу совершенно иного соединения. Каковы условия создания генетической информации? Можно представить себе колыбель генетической информации или зону комфорта как экстремум распределения гетерокаталитической активности (р) на некотором пространстве режимов, где р близко к максимально-возможному значению. Тогда на грани­цах зоны комфорта, где величина р будет все более уменьшать­ся, вполне допустимы ситуации, когда определенные виды гетерокаталитической активности будут вызывать не уменьшение, а возрастание р (т.е. где Р>р). Естественный отбор, конечно, бу­дет подхватывать и «закреплять» такие последовательности оснований, которые на гетерокаталитическом уровне сопровожда­ются указанным эффектом. Очевидно, что в разных участках периферии зоны комфорта одни и те же следствия, т.е. соотношение Р>р, смогут обеспечиваться разными гетерокаталитическими особенностями. Репродукция носителя вместе с содержа­щейся в нем информацией будет достигаться разными путями.

В условиях, отдаленных от зоны комфорта, отбор будет идти по пути формирования такого рода гетерокаталитических струк­тур, химическая активность которых будет способствовать ло­кальной имитации зоны комфорта в их непосредственной бли­зости. Каждый акт репродукции таких структур будет, с одной стороны, возвращать условия в этих локальных областях к исходному состоянию, а, с другой, будет «сообщать» дочерним молекулам, «что надо делать, чтобы воспроизвести себя в этих условиях», и процесс приобретает циклический характер.

Предыдущий абзац, по существу, представляет собой описа­ние работы информационных систем 1-го рода, реализованных на молекулярном уровне. Хотя такие молекулы и можно назвать «живыми», но это, конечно, далеко еще не «живые орга­низмы». Живыми организмами, индивидуумами, или неделимы­ми, мы называем обычно не молекулярные носители информа­ции, а комплексы этих носителей с порождаемыми ими опера­торами,  комплексы,  отделенные  от  внешней  среды   и  располагающие, таким образом, средой внутренней [9]. Функция опера­тора носителей информации здесь не исчезает, но проявляется в создании системы структур, которые этот носитель окружают и обеспечивают его обособление от внешней среды. Только такие структуры и обеспечивают периодическое возникновение во внут­ренней среде зоны комфорта. Благоприятствовать появлению таких живых может лишь постепенное продвижение их предшественников из зоны комфорта (где p≈1) в удаленные от нее об­ласти пространства режимов, для которых р≈0. Условием воз­никновения живых организмов, следовательно, является постепен­ное проникновение их предшественников в такие участки про­странства режимов, где спонтанное возникновение и размножение носителей генетической информации практически исключено.

Здесь мы использовали термин, имеющий смысл только по отношению к живым индивидуумам, т.е. к организмам или био­логическим объектам, термин «генетическая информация». Все такие объекты, от простейших прародителей прокариот до со­временных гигантов мира растений и животных, можно отно­сить к информационным системам 1-го рода все они облада­ют прекрасно развитыми операторами, структурно независимы­ми от носителей информации, но пространственно составляю­щими с ними единое целое, отделенное от внешней среды. Кодирующую строение и функции этих операторов информацию мы и называем генетической, а сами операторы негенетиче­скими или соматическими компонентами клеток и организмов. Определение терминов «генотип», «фенотип» и других, связан­ных с ними, можно найти в любом учебнике генетики (см., напр., [3]), и останавливаться на этом нет смысла.

Логическая последовательность событий, приводящих от воз­никновения простейших потенциальных носителей информации к простейшим организмам информационным системам 1-го ро­да, конечно, не зависит от того, какими конкретными путями осуществлялись те или иные ее этапы. Не имеет смысла также обсуждать вопрос, относящийся к моно- или полифилетическому происхождению организмов, в действительности, по-видимому, реализовывались все логические возможности. Полезнее сосредо­точить внимание на вычленении ключевых событий генезиса и эволюционирования феномена жизни и тех условий, которые определяли осуществление этих событий.

Требования к информации и операторам

Сказанное выше позволяет сформулировать  те требования к информации и кодируемым ею операторам, соблюдение которых является необходимым условием для того, чтобы их совокуп­ность могла составить информационную генетическую систему.

Информация должна быть закодирована на носителе, допус­кающем возможность реализации двух ее ипостасей, т.е. возмож­ность проявлять себя то в осуществлении гетерокатализа, то в осуществлении аутокатализа. В первом случае будет реализовываться присущая информации действенность, т.е. построение ко­дируемого ею оператора и управление его функционированием, а во втором размножаемость. Пример такого носителя мы уже видели это полимерные молекулы апериодического строения, такие, как молекулы РНК или ДНК ныне живущих организмов. Можно полагать, что в простейшем случае «тумблером», осуще­ствляющим «переключение» функций информации с гетерокатализа на аутокатализ и обратно, может служить концентрация в ок­ружающей среде определенных химических соединений: когда концентрация мономеров разных типов, составляющих молекулу-полимер, достигает критического значения (имитируя зону комфорта), «срабатывает» аутокатализ, число молекул-носителей на­чинает возрастать, а концентрация окружающих их мономеров -уменьшаться; это вызывает «включение» функции гетерокатализа, и молекулы-полимеры вновь начинают индуцировать в окружаю­щей их среде синтез мономеров, и начинается новый цикл. Эта схема может служить ключевой к работе любой информационной системы. Другое дело, что, прежде чем информация получит воз­можность проявить себя как ауто- или гетерокатализатор, может потребоваться «перевод» ее на разные системы записи или же функции эти будут проявляться не непосредственно, а через по­средство ряда промежуточных этапов, с участием многочисленных устройств-медиаторов (различных ферментов, например), но суть дела от этого не изменится.

Функции гетерокатализа, таким образом, сводятся к тому, чтобы обеспечивать успешное выполнение аутокатализа. Специ­фика гетерокаталитическои функции и составляет семантику ин­формации.

Здесь важно подчеркнуть еще одно, уже упоминавшееся, тре­бование к генетической информации: изменение ее гетерокатали­тическои функции не должно никак сказываться на свойстве осуществлять аутокатализ (при необходимых условиях, конечно). Это может реализовываться лишь в одном случае когда та и другая функции осуществляются независимо друг от друга, со­вершенно разными механизмами, т.е. когда механизм аутоката­лиза не зависит от семантики информации, хотя именно семан­тика и определяет конкретные формы его «срабатывания». В случае, если для реализации информации и ее репликации ис­пользуются ее копии на разных носителях, это требование выполняется автоматически. В случае же, когда используется един­ственная копия, выполнение этого требования обеспечивается разделением обеих функций во времени, т.е. цикличностью дей­ствия информационной системы.

Соответственно этому и операторы, обеспечивающие выпол­нение этих функций, могут иметь либо разные считывающие устройства, и тогда они способны функционировать одновре­менно, либо одно, общее, считывающее устройство, и тогда должны работать «посменно». При этом роль операторов, реа­лизующих функцию гетерокатализа, состоит в обеспечении по­стоянства внутренней среды информационного объекта при мак­симальном разнообразии внешних условий; а роль операторов, реализующих функцию аутокатализа, состоит в обеспечении осуществления этого процесса при максимально стабильных со­стояниях внутренней среды. В случае живых организмов удовле­творение этим требованиям операторов реальных информацион­ных систем проявляется в том, что при удивительном разнооб­разии их фенотипов и условий обитания те механизмы, которые осуществляют репликацию генетических структур и прежде всего удвоение ДНК, отличаются поразительной универсальностью. Практически это используется в генетической инженерии.

И, наконец, почти очевидное требование требование пол­ного взаимного соответствия информации и операторов, сла­гающих одну информационную систему. Это должно выражать­ся как в общности языка, на котором записана информация и на который «настроены» считывающие и реплицирующие уст­ройства, так и в идентичности способов фиксации информации, поступающей на «вход» информационной системы и образую­щейся при ее функционировании.

Но сформулированные выше требования к информации и операторам лишь необходимые, но еще не достаточные для того, чтобы слагаемая ими информационная система могла ус­пешно функционировать. Для этого нужно, чтобы было выпол­нено еще одно требование требование комплементарности ин­формационной системы и тех условий, в которой ей надлежит обитать.

Принцип адекватности и экологические ниши

Взаимное соответствие информации и операторов, состав­ляющих единую информационную систему, а также комплементарность этой системы и условий той внешней среды, где ей предстоит функционировать, можно назвать «принципом адек­ватности», несоблюдение которого чревато разрушением и гибелью информационных систем. Чем разнообразнее внешние усло­вия, чем больше размерность пространства режимов таких сис­тем, тем сложнее должны быть устроены их операторы и, сле­довательно, тем большее количество информации требуется для их кодирования. Конкретная специфика условий будет отра­жаться в семантике информации и структурных особенностях операторов. Степень адекватности информации, операторов, его кодируемых, и условий внешней среды будет выражаться в цен­ности данной информации при ее использовании в данной точ­ке пространства режимов.

Рассмотрим теперь более внимательно отношения, которые могут складываться между информационной системой и внешней средой. Однако, прежде чем это сделать, необходимо дать дос­таточно строгие определения трем уже использовавшимся нами терминам «пространство режимов», «среда обитания» и «экологи­ческая ниша».

Пространство режимов это, как мы уже отмечали (глава 2), математическое многомерное пространство, по каждой оси ко­торого отложены нарастающие значения одного из факторов, «жизненно необходимых» для осуществления события цели. Раз­мерность этого пространства, соответственно, равна числу таких факторов. На пространстве режимов может быть распределена вероятность р спонтанного осуществления Z, а также вероят­ность Р его осуществления при использовании данного опера­тора Q,. Поверхности, описывающие такие распределения, могут не перекрываться, а могут перекрываться частично или полно­стью, так что объем пространства режимов, содержащий его область, где р > О, может входить в область для Р > 0, а может занимать и совершенно обособленное положение, особенно если размерности пространства режимов для спонтанного и целена­правленного осуществления Z не одинаковы.

Размерность пространства режимов какого-либо оператора -очень важная характеристика этого оператора, отражающая число факторов, с которыми ему необходимо взаимодействовать при осуществлении данного целенаправленного действия. Объем области пространства режимов, где Р > 0, отражает то разнооб­разие комбинаций значений жизненно необходимых факторов, при которых событие Z может осуществляться. Это зона осуществления Z. В случае спонтанного осуществления Z та об­ласть зоны осуществления,  где p≈1, и есть «зона комфорта».

Особое значение имеет область зоны осуществления Z, где р или Р, отнесенные к единице времени, превышают значения р' или Р', выражающие вероятность гибели в единицу времени объектов класса Z. Это зона мультипликации (спонтанной или индуцированной) событий класса Z.

Среда обитания, в отличие от пространства режимов, это реальная среда, содержащая жизненно необходимые факторы в соотношениях, соответствующих зоне осуществления Z. Кроме них, среда обитания может содержать еще ряд факторов, как безразличных для осуществления Z, так и препятствующих ему.

Экологическая ниша это та область среды обитания, в ко­торой соотношение всех жизненно необходимых факторов соот­ветствует зоне мультипликации Z, а давление помех не настоль­ко выражено, чтобы существенно ее деформировать.

Таким образом, как зоны обитания, так и экологические ниши это реальные участки пространства, разбросанные по нашей планете, причем одинаковые зоны обитания или экологические ниши идентичны только в отношении сочетаний жиз­ненно необходимых факторов, но могут существенно различать­ся по факторам, безразличным или выступающим в роли помех. Число факторов, входящих в реальные зоны обитания или эко­логические ниши, может быть самым разным, равным или пре­вышающим размерность пространства режимов, которая, таким образом, ограничивает его снизу. Поэтому один и тот же уча­сток реального пространства может включать в себя несколько разных зон обитания и экологических ниш.

Теперь мы можем достаточно строго сформулировать прин­цип адекватности информационных систем и внешней среды. Адекватными данной информационной системе будем называть те области внешней среды, которые по отношению к ней могут выступать в роли экологических ниш. Только в таких областях информационная система может воспроизводить себя, постоянно увеличиваясь в численности. Мерой адекватности здесь, следова­тельно, может служить степень превышения р над р' или Р над Р' или, если речь идет о ситуациях, когда р≈0, величина цен­ности С информации, кодирующей данную информационную систему.

Элементарные экологические ниши

Мы уже достаточно много говорили об идентичности ин­формационных систем 1-го рода и живых организмов, для того чтобы употреблять эти термины как синонимы. Соответственно факторы среды обитания (и, конечно, пространства режимов) можно разделить на две группы: те, происхождение которых никак не связано с деятельностью живых организмов, и те, на­личие которых так или иначе обусловлено их жизнедеятельно­стью. Факторы первой группы будем называть абиогенными, а второй биогенными.

Очевидно, что в период, предшествовавший зарождению жизни на нашей планете, т.е. более 4 млрд. лет назад, биоген­ные факторы вообще отсутствовали. Периодически возникающие в разных участках Земли зоны комфорта, где могли зарождать­ся и даже мультиплицироваться простейшие потенциальные но­сители информации, а также спонтанно складывающиеся потен­циальные экологические ниши, которые могли «заселяться» про­стейшими информационными системами, слагались, конечно, только из факторов абиогенной природы. Биогенных факторов просто еще некому было производить.

Это позволяет нам ввести понятия «элементарные простран­ства режимов» и «элементарные экологические ниши», называя таковыми соответствующие объекты, не содержащие ни одного биогенного фактора. Следовательно, элементарные экологиче­ские ниши это такие участки среды обитания, которые со­держат все факторы, необходимые и достаточные для заселения их простейшими организмами, причем все эти факторы имеют абиогенную природу. Такие, еще необитаемые, но пригодные для заселения участки внешней среды будем называть потенци­альными элементарными экологическими нишами.

Совершенно ясно, что абиогенное формирование потенциаль­ных экологических ниш должно было предшествовать возникно­вению элементарных информационных систем, иначе таким системам, случайно и спонтанно образующимся в зонах ком­форта, просто негде было бы «закрепляться» и начинать функ­ционировать. Разнообразие элементарных экологических ниш должно было гарантировать семантическое богатство информа­ции, кодирующей их первичных обитателей.

Элементарные организмы обитатели 1-го яруса жизни

В главе 5 мы рассмотрели тот отрезок пути, по которому могли бы пройти наши информационные системы от спонтан­ного возникновения первых нуклеиновых кислот до простейших представителей живых организмов. На этом пути должно было возрастать как количество информации, приходящейся на один индивидуум, так и ее суммарное семантическое богатство. В итоге появились информационные системы 1-го рода первич­ные живые организмы, способные размножаться в условиях, не­пригодных для спонтанного возникновения носителей кодирую­щей их информации.

Простейших гипотетических представителей первичных живых организмов будем называть элементарными, а условия, пригодные для их обитания элементарными экологическими нишами. При­знаком элементарности таких организмов будет их независи­мость от жизнедеятельности других живых существ, обладающих иными генотипами, а признаком элементарности экологических ниш - их абиогенное происхождение. Элементарные живые ор­ганизмы, таким образом, «разрабатывая» свои элементарные эко­логические ниши и трансформируя их компоненты в живое ве­щество и продукты своей жизнедеятельности, составляли первый ярус строящегося здания жизни, или, точнее, его фундамент.

Можно представить себе, что на молодой Земле зон комфорта было довольно много, и из них по разным направлениям весьма длительное время распространялись потенциальные носители гене­тической информации. Попадая в подходящие условия, они в не­посредственном своем окружении индуцировали различные хими­ческие реакции (благодаря свойству гетерокатализа), в том числе так или иначе влияющие на их собственное воспроизведение. Удачные сочетания компонентов этих носителей отражали усло­вия их обитания. В силу полипотентности информации, а также в результате комбинаторной ее изменчивости воссоздать истинный генезис того или иного генотипа никогда не удастся. Однако то и другое должно было обеспечить высокую экспансивность пер­вичных живых существ. В результате этого, можно думать, про­цесс «освоения» потенциальных экологических ниш происходил весьма бурно и, раз начавшись, доложен был завершиться в от­носительно непродолжительные сроки.

По крайней мере, уже 3-3,5 млрд. лет назад на Земле суще­ствовали сообщества синезеленых водорослей и бактерий, кото­рые образовывали мощные строматотиты, в которые входили, по-видимому, как фотосинтетики, так и хемосинтетики, ведущие интенсивную разработку поверхности Земли. Одновременно, в результате жизнедеятельности элементарных живых существ, шел и другой процесс процесс «построения» новых потенциальных экологических ниш, уже включающих биогенные компоненты и предназначенных для заселения обитателями уже второго яруса жизни.

Здесь следует заметить, что представление об элементарных организмах и элементарных экологических нишах может не со­ответствовать действительности, если эти термины понимать бу­квально. Дело в том, что абиогенная органика, как теперь из­вестно, должна была быть весьма распространенным химиче­ским компонентом молодой Земли [10] и могла служить одним из основных источников материала как для «блочной» сборки в зоне комфорта первичных носителей информации, так и для по­строения операторов первичных информационных систем. Но в таком случае продукты деятельности  элементарных  организмов и продукты их распада (после гибели) мало чем отличались от таких абиогенных «кирпичиков» и могли сразу же включиться в биологический круговорот вещества. Здание жизни росло не как «древо», а как сложно сплетенная многомерная сеть. Но обу­словленная этим сложность картины не меняет сути дела хотя бы потому, что само существование живых организмов и многоярусность жизни непосредственно следует из основных зако­нов динамики информации.

Побочные продукты работы операторов и потенциальные экологические ниши

Уже для простейших информационных систем, представляю­щих собою, как мы предположили, такие полимерные молекулы, гетерокаталитическая активность которых при определенных ус­ловиях могла повышать вероятность осуществления их аутокатализа, ярко выраженным должно было быть возникновение и накопление в их окружении побочных продуктов их деятельно­сти. Некоторые из этих побочных продуктов могли оказаться «полезными», и тогда создание их закреплялось в программе и подвергалось дальнейшему совершенствованию выход w уменьшался, а КПДQ возрастал. Другие побочные продукты могли быть бесполезными и даже вредными, но, в силу своей незапрограммированности, неизбежно накапливались в окру­жающей среде. В случае живых организмов такими побочными продуктами воспроизведения кодирующей их информации явля­ются все без исключения! – продукты их жизнедеятельности, включая их собственные тела и разрушающиеся носители их информации.

Изменения, связанные с действием w на среду обитания про­дуцирующих их организмов, могут вызвать самые различные последствия. Так, накопление w может просто привести к гибе­ли их продуцентов, а также любых других организмов, ти­пичный пример самоотравления живых систем; w могут дейст­вовать как мощные мутагены, заставляя мутировать их проду­центов, что обычно приводит к постепенному вырождению; на­конец, w могут быть таковы, что их смогут утилизировать, в качестве нового ресурса, какие-либо другие организмы или му­танты исходных форм, создающих, таким образом, компоненты новых потенциальных экологических ниш. Это означает, что в подобном случае отдельные побочные продукты или их ком­плексы, в сочетании с теми или иными предшествовавшими уже факторами внешней среды, могли образовывать новые потенци­альные  экологические  ниши  все  более  высоких  ярусов  жизни.

Если в такие условия обитания попадали комплементарные им эмигранты из зоны комфорта или же в ходе размножения орга­низмов, заселяющих низлежащие ярусы жизни, случайно возни­кали варианты, способные утилизировать (или как-то иначе ис­пользовать) такие новые факторы, они начинали разрабатывать эти экологические ниши, содержащие уже биогенные компонен­ты. Другими словами, элементарные живые организмы в ходе своей жизнедеятельности сами создавали потенциальные эколо­гические ниши 2-го яруса жизни, а продукты жизнедеятельности заселяющих их организмов, в свою очередь, формировали по­тенциальные экологические ниши все более высоких ярусов.

Совершенно ясно, что если w будут приводить к гибели продуцирующих их объектов и не смогут быть утилизированы другими объектами, популяция продуцентов данных w отомрет и никаких последствий для живого мира это иметь не будет. Поэтому мы вправе рассматривать только третий случай, когда w, не вызывая быстрого отмирания своих продуцентов, смогут быть использованы другими организмами и будут служить ком­понентами их экологических ниш.

Изложенный выше принцип формирования многоярусного строения жизни отражает как структуру феномена жизни, так и процесс его построения, согласно которому появлению обитателей какого-либо яруса жизни обязательно должно предшество­вать возникновение комплементарной ему потенциальной эколо­гической ниши.

Принцип автогенеза информации. Эволюция семантики информации

Вспомним теперь, что побочные продукты w являются неиз­бежными спутниками любого целенаправленного действия. Со­гласно второму закону термодинамики, КПД оператора всегда меньше единицы, и поэтому любая информационная система, функционируя, всегда и неизбежно будет изменять среду своего обитания, создавая компоненты новых потенциальных экологи­ческих ниш. Это означает, что многоярусное здание жизни мо­жет базироваться даже на одной единственной элементарной экологической нише; для его построения, вообще говоря, со­вершенно не обязательно исходное экологическое разнообразие.

Тот термодинамический закон, согласно которому КПД ни­какой машины никогда не достигает единицы, может служить основой для формулирования принципа автогенеза информации: раз возникнув, информация, в ходе деятельности кодируемых ею операторов,  неизбежно  сама  создает  условия  для   своего  дальнейшего развития. Эволюция информации, реализующая эту воз­можность, столь же неизбежно должна иметь ярусный характер. Ярусный характер эволюции касается и семантики информации.

Следует заметить, что принцип автогенеза информации тес­нейшим образом связан с ее полипотентностью. Действительно, именно полипотентность обусловливает возможность существования в единой среде обитания нескольких различающихся ин­формационных систем или, попросту говоря, организмов разных генотипов. Это обстоятельство должно существенно влиять на скорость протекания автогенеза. Проявляться это может двояко: как в увеличении разнообразия новых потенциальных экологи­ческих ниш, так и в увеличении разнообразия организмов, способных в силу их полипотентности! эти ниши осваивать.

Здесь, однако, неизбежно возникает вопрос о критерии сте­пени подбора или выбора будущих обитателей новых экологи­ческих ниш среди множества претендентов, т.е. о критерии значимости. «Ибо много званных, а мало избранных» (Мат. 22, 14). Вопрос этот выходит далеко за рамки формулирования условий, делающих возможным простое заселение новых экологических ниш, и вплотную подводит нас к лучшему пониманию всех развертывающихся вслед за этим событий.

Критерий значимости. Информационные поля

Очевидно, что заселение новых ниш информационными объ­ектами предполагает как предсуществование таких ниш (безраз­лично, абиогенного или биогенного происхождения), так и предсуществование способных их заселять живых организмов. Генезис новых ниш обсуждался выше. Заселяются же первона­чально эти ниши объектами, ранее существовавшими в других нишах, но способными, в силу полипотентности их информации, осваивать и эти, новые ниши.

Таким образом, в каждую новую экологическую нишу может «вселиться» несколько разных объектов: с течением времени к ним прибавляются те, которые возникают уже в этой нише благодаря изменчивости кодирующей их информации. Между всеми этими обитателями ниши начинается конкуренция за пол­ное овладение ею процесс, обычно называемый «естественным отбором». При этом все время следует иметь в виду, во-первых, что отбору подвергаются отдельные информационные системы, а во-вторых, что этот процесс автоматический. Его направлен­ность, которую мы постараемся выявить и обосновать, возника­ет в силу самой природы вещей, носит вероятностный характер и приводит к формированию информации,   обеспечивающей через посредство своего оператора наиболее успешное свое воспроизведение в условиях данной ниши.

Вот здесь и возникает проблема критерия значимости, или критерия отбора, призванного определить, что же такое «наибо­лее успешное». Вообще говоря, может существовать много таких критериев: скорость размножения, конкуренция за субстрат, «перехват» источников энергии и т.п. [11]. Нас, однако, интересу­ет прежде всего такой критерий, который отражал бы не только особенности операторов (подобные только что упомянутым), но и кардинальные свойства самой информации, эти операторы коди­рующей. В качестве такого критерия рассмотрим эффективность информации (см. главу 2), проявляющуюся на уровне оператора как его КПД в данном пространстве режимов (см. главу 3).

Насколько наш критерий значимости соответствует действи­тельности, или, точнее, насколько он универсален, без тщатель­ного конкретного анализа сказать трудно. Можно лишь пред­положить, что он имеет весьма общий характер. Поэтому здесь мы ограничимся лишь теми последствиями, к которым может приводить реализация его в тех или иных ситуациях.

Одно из таких последствий введение понятия «информа­ционное поле». В главе 2 мы уже отмечали, что зависимость эффективности информации А от ее количества В должна опи­сываться кривой с максимумом. Очевидно, что такую же форму будет иметь и зависимость КПДQ(В). Графически эта зависи­мость изображена в координатах А, В (см. рис. 2). Кривая А (В) описывает эту зависимость для тех вариантов информации, у которых в данных условиях (т.е. для данной пары Z и s) на­блюдаются максимально возможные, при данных В, значения С. Поэтому площадь, ограниченная сверху кривой А (В), будет «за­селена» информациями, имеющими меньшие, нежели максималь­но-возможные при данных В, значения С. Максимум кривой А (В), как уже отмечалось, соответствует той величине Вmax при которой эффективность информации может иметь макси­мальное (в данном информационном поле) значение, а оператор, такой информацией кодируемый, имеет наибольший из всех возможных КПДQ.

Площадь, ограниченную кривой А (В) в системе координат А,В, и будем называть «информационным полем» для данной пары Z и s. Независимо от специфики Z и s, кривые А (В) все­гда имеют максимум, т.е. для любого информационного поля всегда может существовать хотя бы одна информация, коди­рующая оператор с максимально-возможным для данной пары Z и s значением КПДQ.

Каждой экологической нише соответствует свое информационное поле. Очевидно, что информация, попадая в новое, еще не освоенное информационное поле, может располагаться в самых раз­ных его точках, но не вне его пределов. Очевидно также, что в основе динамики информации должен лежать процесс ее мигра­ции (блуждания) в пределах информационного поля, порождае­мый присущей ей изменчивостью и направляемый критерием зна­чимости. Очевидно, наконец, что «движущей силой» этой дина­мики в любом информационном поле будет служить «стремление» достигнуть точки, соответствующей экстремуму кривой А (В).

Этот процесс можно описать статистической моделью, в ко­торой вероятность удвоения информации (или, точнее, инфор­мационной системы) будет пропорциональна степени приближе­ния ее к точке экстремума, даже при постоянстве вероятности ее ги­бели в разных участках информационного поля. Конкретные механизмы, здесь работающие, могут быть самыми разными.

Иерархия экологических ниш

Элементарные экологические ниши, по определению, состоят только из абиогенных компонентов и обладают минимальными из возможных размерностями. Их обитатели элементарные ор­ганизмы занимают 1-й ярус жизни. Количество кодирующей их генетической информации не может быть ниже некоторого минимального значения, определяемого размерностью их эколо­гических ниш, которая может варьировать, по-видимому, в ог­раниченных пределах. Возможна, конечно, ситуация, когда ка­кой-либо организм может обитать в нескольких разных эколо­гических нишах, но он все равно остается на 1-м ярусе жиз­ни, просто его экологическая ниша имеет мозаичное строение, а количество генетической информации будет превышать то, ко­торое достаточно для освоения отдельных экологических ниш.

Дело, однако, изменяется, когда мы переходим ко 2-му ярусу жизни. Экологические ниши 2-го яруса, как мы помним, вклю­чают биогенные компоненты, продуцируемые обитателями од­ной или нескольких элементарных экологических ниш. Следова­тельно, экологические ниши 2-го яруса как бы включают в себя одну или несколько экологических ниш 1-го яруса, возвышаясь над ними. Размерность таких ниш возрастает по сравнению с размерностью ниш 1-го яруса. Это предъявляет новые требова­ния к количеству генетической информации у тех объектов, ко­торые могут оказаться способными эти ниши осваивать.

Это же относится и к экологическим нишам всех последую­щих ярусов жизни. Чем выше иерархическое положение этих ниш, чем большее число ниш низлежащих ярусов они в себя включают, тем большей будет их размерность, и, следовательно, тем больше информации требуется для кодирования информа­ционных систем, способных такие ниши разрабатывать. Иерар­хическое строение экологических ниш, таким образом, лишь предпосылка к многоярусности древа жизни. Но такое строение экологических ниш предъявляют к их обитателям одно строгое требование: переход с более низких ярусов на более высокие должен сопровождаться возрастанием количества информации, кодирующей эти организмы.

В терминах информационных полей сказанное выше будет выражаться в том, что с увеличением размерности экологиче­ских ниш должно возрастать количество информации, способ­ной обладать максимальной эффективностью в том или ином информационном поле, этим нишам соответствующем. Количе­ство такой оптимальной информации для обитателей все более высоких ярусов жизни может только возрастать.

Последнее высказывание можно сформулировать и по-другому. Действительно, можно утверждать, что с увеличением количества информации размерность пространства режимов, обеспечивающего ее успешную редупликацию, должна возрастать. Попробуем обос­новать это утверждение на мысленном примере динамики инфор­мации, попадающей в разные информационные поля.

Динамика информации в разных информационных полях: конвергенция и дивергенция, деградация, идиоадаптация и араморфозы

Пусть дано некоторое информационное поле 1 с оптималь­ным количеством информации В10. Пусть разные точки этого информационного поля заняты информационными системами, кодируемыми информацией с разными значениями В. Пусть эти информационные системы могут размножаться в данном инфор­мационном поле со скоростями, пропорциональными А, и в хо­де размножения изменяться благодаря изменчивости кодирую­щей их информации. Такая изменчивость может затрагивать как количество информации В, так и ее семантику, сказываясь во втором случае на ценности С этой информации в данном ин­формационном поле. Введем еще две характеристики информа­ционных систем скорость их размножения VP, которая может быть выше, а может быть и ниже скорости их гибели Vr.

Нетрудно показать, что с течением времени, при прочих равных условиях, характер заселенности разных участков ин­формационного поля будет изменяться (рис. 4). Хотя изменчивость  информационных  систем  не  направлена  и,  в  силу  своей случайности, может приводить к их попаданию в любую точку информационного поля, те из них, у которых величина В больше или меньше, чем Вopt, согласно соотношению VP/Vr окажутся обреченными на прозябание или гибель, а основная масса обитателей информационного поля будет все более с те­чением времени, сосредоточиваться в зоне его экстремума (где В Ворt), приближаясь к максимальному значению величины А1=А1max. Налицо конвергентная эволюция информационных систем их эволюция в направлении оптимального количества информации Bopt и единой семантики, обеспечивающей приближение значений С к величине С1010В10.