Что не относится к свойствам информации. Феномен информации

Существуют ли отражение без информации и информация без отражения? Конечно, не существуют - такой ответ на этот вопрос прочно утвердился в нашей философской литературе. И он, несомненно, правилен. Однако некоторые философы склонны в какой-то мере абсолютизировать эту связь.

При чте­нии некоторых работ, посвященных философскому анализу по­нятия информации, невольно создается впечатление, что ин­формация связана преимущественно с отражением. Связь же информации с другими всеобщими свойствами материи как-то остается в тени.

Действительно, информация не существует без отражения, но она невозможна и без других атрибутов материи - движения, пространства, времени и т. д. Поэтому, признавая неразрывную связь отражения и информации, нет необходимости представлять эту связь как единственно существующую, хотя она и изучена наиболее полно. Нельзя говорить о субординации всеобщих свойств материи, первичности одних атрибутов по сравнению с

другими. Речь может идти лишь об их единстве, взаимосвязи,

взаимопроникновении.

Рассмотрение содержания понятия отражения представля­ется целесообразным начать с категории взаимодействия (при­чинности).

Воздействие одного тела на другое сопряжено с отражени­ем. При этом объект, являющийся причиной, с точки зрения тео­рии отражения называется отражаемым, а объект, являющийся следствием, отражающим. Отражение является стороной при­чинной связи. Из всего содержания понятия воздействия выделя­ется лишь определенный аспект. Под отражением в широком смысле понимается процесс и результат воздействия одной мате­риальной системы на другую, который представляет собой вос­произведение в иной форме особенностей (черт, сторон, струк­туры) одной системы в особенностях (чертах, сторонах, структу- *

ре) другой. В процессе воздействия возможны и другие измене­ния, которые не соответствуют особенностям воздействующей системы. Но от этих последних изменений, составляющих со­держание воздействия, отвлекаются при определении понятия отражения.

Если попытаться раскрыть, в чем же заключается соответ­ствие между отражающим и отражаемым, то можно прийти к та­кому определению

Отражение - это воздействие одной материальной системы на другую, ведущее к установлению определенного (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой).

Как следует из приведенного определения, отражение вы­ступает как диалектическая связь тождества и различия двух объектов, причем тождество объектов выражается через их раз­личие и благодаря ему. Такое определение дает возможность вы­разить информационный аспект отражения.

Правда, в определенном отношении оно является упроще­нием. Это упрощение сказывается, в частности, в том, что мы выделили лишь одну сторону реального процесса - именно воз­действие одного объекта на другой. В более общем случае необ­ходимо исходить не из воздействия, а из взаимодействия.

Отражение, основанное на взаимодействии, имеет смысл назвать взаимоотражением. В качестве отражаемой и отражаю­щей здесь выступают обе взаимодействующие системы. Разра­ботка теории взаимоотражения еще только начинается, но она уже остро необходима современной науке при изучения, напри­мер, свойств микрообъектов, сложных кибернетических систем Взаимодействие можно рассматривать и как взаимодействие элементов, частей внутри объекта.

Отражение, связанное с тако­го рода внутренними взаимодействиями, может быть охаракте­ризовано как самоотражение, т. е. отражение объектом (систе­мой) самого себя.

Согласно ранее приведенному определению отражения ин­формация выступает как содержание отражения. Содержанием отражения являются те изменения, различия, которые в отра­жающей системе соответствуют изменениям, различиям отра­жаемой системы. Информация как содержание отражения со­ставляет лишь определенный класс различий.

Таким образом, информация, с позиций теории отраже­ния, может быть представлена как отраженное разнообразие, а именно разнообразие, которое один объект содержит о другом объекте.

В большинстве случаев в реальном процессе отражения пе­редача информации от отражаемого тела к отражающему проис­ходит в форме сигнала. Следовательно, для того чтобы осущест­вился процесс отражения, кроме отражаемого и отражающего объектов необходим третий компонент - среда, передающая ин­формацию, закодированную в форме сигнала.

В теории связи, теории информации под сигналом обычно понимается любой процесс или объект, при помощи которого можно передавать информацию, кодировать различия. Различия могут передаваться, например, величиной амплитуды тока, его частотой, длительностью импульсов и т. д. Короче говоря, те свойства сигналов (любых процессов), которые не изменяются (или от изменения которых отвлекаются), не несут информации, они тождественны для воспринимающего сигнал (отражающего) объекта. Те же свойства сигналов, которые могут передавать раз­личия, изменяются соответственно изменению (различиям) пе­редающего (отражаемого) объекта, являются информационными.

Сигналы (и соответствующие им типы отражения) можно разделить на четыре больших класса: сигналы в неживой, живой природе, обществе и технике. В неживой природе сигнальный характер взаимодействий не используется телами, так как там нет переработки информации.

Переработка информации связана с соотнесением инфор­мации, воспринимаемых различий с объектами, которые пере­дают эти различия в форме сигналов. Такого соотнесения нет в неживой природе, отражение там носит пассивный характер.

Использование информационных свойств сигналов насту­пает лишь на уровне живых систем, в связи с появлением управ­ления, о чем уже говорилось. Сигналы, используемые в техниче­ских (кибернетических) устройствах, формально не отличаются от взаимодействий, имеющих место в неживой природе, однако здесь происходит соотнесение информации с отображаемыми объективными различиями, что, в конечном счете, приходится на долю человека. В настоящее время в кибернетических устройст­вах стремятся воспроизвести черты восприятия сигналов, свой­ственные живым организмам (чем занимается и бионика). Упо -

мянутая проблема формулируется как проблема опознавания об­*

разов, которое связано с их отождествлением и различением. Создаются воспринимающие устройства, моделирующие органы чувств животных и человека, - так называемые персептроны.

Сигналы, воспринимаемые каким-либо объектом, несут информацию об определенной стороне отражаемого объекта, но отнюдь не обо всем объекте полностью. Данный объект, взаимо­действуя с другим объектом, может получать лишь ограниченное количество информации об отражаемом объекте. Ведь любой материальный объект бесконечно сложен, обладает бесконечным количеством информации. Но возможности отражения этого разнообразия ограничены конечными отражательными способ­ностями конкретных материальных систем. Поэтому имеет смысл, исходя из вышесказанного, классифицировать виды от­ражения (как результата) в зависимости от особенностей отра­жающего объекта.

Вначале рассмотрим некоторые примеры. Пусть имеются две системы: Ми N. Система М отражаемая, система N отра­жающая. Допустим, что система М состоит из некоторого конеч - ного числа элементов (частей), каждый из которых посылает сигнал. Предположим далее, что система N включает в себя все­го лишь один элемент. Может ли в этом случае она отразить внутреннее разнообразие системы M? Может, но только в одном случае, если сама система М также состоит из одного элемента. Любое увеличение числа элементов системы М не ведет к увели­чению отражаемого разнообразия, ибо в отражающей системе N всего один элемент. Какими бы особенностями, различиями ни обладала отражаемая система, они никак не могут быть отраже­ны. Думается, что в этом случае отражение не может быть выде­лено из взаимодействия. Легко видеть, что ни о каком содержа­нии отражения не может быть речи, так как оно требует некото­рой отраженной совокупности элементов во множестве. Итак, взаимодействие объектов возможно без передачи разнообразия, информации, тогда как отражение невозможно без этого.

Для того чтобы происходила передача информации от сис­темы М к системе N в процессе их взаимодействия, необходимо, чтобы система N обладала минимум двумя могущими отражать элементами. Отражение на уровне элементов систем становится все более полным, или, как принято говорить, более адекватным, если все большее количество элементов системы N отражает элементы системы М. Наконец, когда каждому элементу системы М будет соответствовать только один элемент системы N, и об­ратно, каждому элементу системы N будет соответствовать толь­ко один элемент системы М, между элементами систем будет ус­тановлено взаимооднозначное соответствие. Такое отражение назовем эквивалентным отражением. Степень адекватности от­ражения может определяться формулами теории информации.

Мы можем рассматривать степень адекватности отражения также на уровне упорядоченности, организации, структуры. Упомянутые уровни отражения необходимо четко разграничи­вать, но, к сожалению, это не всегда делается. Так, мы можем встретить в определениях понятия отражения утверждение, что речь обязательно должна идти о соответствии структур. Но это лишь частный случай отражения и сводить к нему общее опре­деление отражения было бы неправомерным. Например, отраже­ние на уровне элементов может не быть соответствием структур (если под структурой понимать инвариантные элементы). Ведь могут отражаться все элементы данного уровня, а не только ин­вариантные, и тогда отражение не будет связано только с соот­ветствием структур.

В современной литературе, посвященной проблеме отраже­ния, наметилась тенденция использовать понятия гомоморфизма и изоморфизма. Гомоморфным отражением называется такое от­ражение, которое выполняется при наличии трех условий. Во-первых, каждому элементу системы М соответствует один элемент системы N. Во-вторых, каждому отношению, связи эле­ментов системы М соответствует одно отношение, связь элемен­тов системы N. В-третьих, если для некоторых элементов а, b, с системы М выполняется некоторое отношение F M , то для эле­ментов а 1 , b 1 , с 1 системы N, соответствующих элементам а, b, с системы М, выполняется отношение F n , соответствующее F M . При гомоморфном соответствии не должно быть взаимоодно­значного соответствия элементов систем. Другими словами, здесь наблюдается неполное, приближенное отражение одним объектом структуры другого. Степень адекватности гомоморф­ного отражения также можно определять методами теории ин­формации.

Гомоморфное отражение переходит в изоморфное, если вы­полняется взаимооднозначное соответствие между элементами и отношениями обеих систем (М и N). В случае изоморфного от­ражения получается равенство количеств информации отражае­мой и отражающих систем. В этом случае можно говорить о наиболее адекватном отражении.

Привлечение понятий гомоморфизма и изоморфизма оказы­вается очень полезным для теории отражения. Однако было бы неправильным понятие отражения формулировать лишь через упомянутые математические понятия. Дело в том, что гомо­морфное и изоморфное отражения являются лишь частными случаями адекватного отражения. Необходимо учитывать, что применение математических понятий в философии оказывается полезным, если при этом не забывается, что они снижают уро­вень содержательности и выделяют лишь частные, хотя бы и очень важные, случаи.

Рассмотренные выше типы отражения показывают, что все более высокий тип отражения, или точнее: все более полное, аде­кватное отражение возможно лишь во все более сложных, органи­зованных, упорядоченных системах. Рассматривая выше связь понятий информации и развития, мы сделали вывод, что увеличе­ние разнообразия систем происходит именно на прогрессивной линии развития. Следовательно, прогрессивное развитие связано с тем, что более высокоразвитые системы обладают возможно - стью все более адекватного отражения. Действительно, растет сложность, упорядоченность, организация, структура отражаю­щих объектов, у живых объектов появляются различные формы активного отражения, начиная от раздражимости (таксисы, тро- пизмы, настии) и кончая психическими формами отражения.

Роль увеличения внутреннего разнообразия была выявлена и в области кибернетических устройств. Кибернетические ма­шины мы вынуждены делать все более сложными, организован­ными, упорядоченными (содержащими большее количество раз­нообразия на различных уровнях) именно для того, чтобы более точно, адекватно отражать и реагировать на разнообразие среды, в которой они должны работать. Об этом хорошо сказал Ст. Бир: «Часто можно услышать оптимистический призыв: “Создайте простую систему управления, которая не может ошибаться”. Бе­да заключается в том, что такие “простые” системы не обладают достаточным разнообразием, чтобы справиться с разнообразием окружающей среды. Таким образом, они не только неспособны не делать ошибок, но и вообще не могут правильно работать. Успешно справиться с разнообразием в управляемой системе может только такое управляющее устройство, которое само об­ладает достаточным разнообразием» .

Короче говоря, в силу закона необходимого разнообразия, активное отражение может быть более адекватным лишь в высо­коорганизованных сложных системах.

Усложнение аппарата отражения, которое происходило на линии прогрессивного развития, свидетельствует о том, что су­ществует так называемое прогрессивное отражение. В чем оно заключается? Иногда высказывают точку зрения, что процессы отражения в неживой природе связаны с разрушением тел, с их регрессивными качественными изменениями . В принципе та­кие процессы действительно имеют место. Однако из этого не следует, что в результате отражения происходит только разруше­ние тел неживой природы. В неживой природе наблюдаются и иные процессы отражения, которые связаны не только с разру­шением качества объектов, но и с его сохранением и даже с уве­личением сложности, упорядоченности, организации естествен­ных систем. Например, сохранение качества атома происходит, когда под действием фотона электрон не отрывается от атома, а лишь переходит с одного энергетического уровня на другой. Особое значение в неживых объектах приобретают такие их ка­чества, которые допускают различные состояния. К ним отно­сятся, в частности, состояния вырожденных уровней энергии, когда система при одной и той же величине энергии может нахо­диться в различных состояниях. Отражение в неживой природе может происходить и без разрушения качественной определен­ности, за счет лишь количественных изменений. Как правило, во всех системах количество состояний, которые система может принимать без разрушения своей качественной определенности, тем больше, чем больше ее внутреннее разнообразие.

Итак, под прогрессивным отражением мы будем понимать отражение, ведущее к увеличению внутреннего разнообразия системы, а под регрессивным, или деструктивным, отражением - отражение, ведущее к уменьшению внутреннего разнообразия системы. В природе существуют оба эти вида отражения.

Поскольку прогрессивное отражение связано с накоплени­ем внутреннего разнообразия системы, то в результате этого все разнообразие системы делится как бы на две части. Одну часть можно условно назвать структурной информацией, а вторую - отражающей информацией. Структурная информация - это эле­менты разнообразия, которые составляют структуру данного объекта, нечто устойчивое, постоянное в самом объекте. Если изменяется структурная информация, то система теряет свою ка­чественную определенность. Таким образом, структурная ин­формация - это часть внутреннего разнообразия системы, кото - рое остается тождественным самому себе при любых (допусти­мых) изменениях.

Другая же часть внутреннего разнообразия системы может изменяться под воздействием других систем и несет функцию отражения. Мы уже отмечали, что увеличение внутреннего раз­нообразия высокоразвитых систем связано с увеличением пере­рабатываемой информации.

Неверно было бы представлять, что структурная и отража­тельная информация не связаны и не взаимодействуют между собой. В действительности существование отражательного раз­нообразия обусловлено существованием структурной информа­ции (и наоборот). Это становится очевидным, если рассматри­вать любые системы, в которых имеется отражательный аппарат, в определенной степени дифференцированный от других струк­тур (как, например, у высших животных, человека).

Характерной чертой отражательного аппарата живых орга­низмов является его «специализация» преимущественно на ин­формационном свойстве материи. Для того чтобы иметь возмож­ность отражать другие объекты, отражательный аппарат должен легко перестраивать свою структуру. Это, в частности, означает, что энергия перестройки связей не должна быть чрезмерно большой. Можно выдвинуть гипотезу, что, например, на уровне ядер вряд ли можно было ожидать появление систем, способных к высшим типам отражения. Энергия связи, например, ядра дей­трона (нейтрон плюс протон) составляет около 2,2 мэв (миллион электроновольт), а ядра урана - 1780 мэв. По сравнению с ядер­ной энергия связи электрона в атоме или молекуле в миллионы раз меньше и составляет, скажем, для атома водорода около 13,6 эв, а для молекулы водорода - около 15,4 эв.

Однако если информационные взаимодействия отражатель­ного аппарата не должны сопровождаться слишком большими энергетическими затратами, то и слишком слабая энергия пере­стройки может привести к неустойчивости, к разрушению связей под действием внутренних и внешних возмущений, к ненадеж­ности. Поэтому устойчивое отражение требует и не слишком низких энергетических затрат. Из четырех видов физических взаимодействий наиболее подходящими являются электромаг­нитные взаимодействия. Ядерные взаимодействия оказываются слишком сильными, гравитационные и так называемые «слабые» обладают недостаточной энергией для развития отражательных свойств. Выявление взаимосвязи между энергией и информаци­ей - весьма важная проблема конкретно-научных исследований свойства отражения. Ведь информация, в частности, может вы­ражать неоднородность энергии, поэтому необходимо выявить энергетические затраты на создание одного бита информации (единицу различий) материальных образований. Однако специ­альные работы в этой области только начинают появляться .

До сих пор мы рассматривали количественные информа­ционные характеристики отражения, которые связывали в ос­новном со степенью адекватности отражения на том или ином уровне. Между тем представляют интерес и другие информаци­онные характеристики отражения, скажем семантические, прагматические аспекты. При этом речь будет идти лишь о сравнительно высоких уровнях отражения, начиная с отражения в живой природе.

Наличие смысла, понятности отражения - необходимое ус­ловие для выработки адекватных реакций живого существа на полученный сигнал. Так, олень, впервые увидевший работаю­щий в лесу экскаватор, не может на него адекватно реагировать, ибо воспринятый образ ни о чем не говорит, он не соотносится с прошлым опытом животного, непонятен ему. Увиденный экска­ватор может вызвать определенные реакции - любопытство, страх и т. п. Но часто наблюдая за работой экскаватора, животное со временем поймет, что он не причинит ему вреда, что он не­опасен.

Лишь понятые сигналы могут быть использованы для адек­ватного поведения животного, лишь осмысленные сигналы яв­ляются основой целесообразного его поведения. Ясно, что тра­воядное, увидев хищника или другое травоядное, будет реагиро­вать на них по-разному. Образ хищника и образ травоядного имеют разную ценность, характеризуя их поведение. Следова­тельно, семантические и особенно прагматические характери­стики информации очень важны при анализе отражения.

В заключение остановимся на некоторых особенностях от­ражения как процесса. До сих пор отражение рассматривалось в основном как результат. Но результат есть следствие процесса, поэтому характеристики отражения результата определяются свойствами отражения-процесса. Отражение можно рассматри­вать как некоторый аспект взаимодействия, как определенный вид причинной связи, сопряженный с передачей разнообразия от причины к следствию. Мы знаем, что информация может пере­даваться от причины (отражаемого) к следствию (отражающему) полностью или частично. Первый случай соответствует процес­сам, подчиняющимся динамическим закономерностям, второй - процессам, подчиняющимся статистическим закономерностям.

Конечно, тот факт, что не вся информация от отражаемого может передаваться к отражающему, может быть обусловлен и отражательными способностями этого последнего. Из этого еще не следует делать вывода, что подобные процессы отражения всегда являются статистическими. Статистическими процессами отражения являются лишь такие, которые связаны со статисти­ческим, вероятностным характером взаимодействия отражаемого и отражающего. Именно на том уровне, на каком взаимодействие подчиняется статистическим закономерностям, отражение также является статистическим (на ином уровне оно может быть и ди­намическим).

Наличие статистических моментов в процессе отражения свидетельствует о том, что ему свойственна неопределенность. С подобной ситуацией научное познание встретилось, например, при изучении микромира. Отражение в мире элементарных час­тиц характеризуется неполной передачей информации от одной взаимодействующей частицы к другой. Это связано с их приро­дой, статистическим характером взаимодействий. Статистиче- ские закономерности, которым подчиняются микрочастицы, на­кладывают определенные ограничения на передачу информации между ними, они ограничивают количество различных кванто­вых состояний микрообъекта. Получается, что микрочастицы как бы недостаточно «информированы» друг о друге.

Когда мы говорим о неполной передаче информации на уровне квантово-механических взаимодействий, то мы имеем в виду, что в процессе взаимодействия и, следовательно, отраже­ния, носящих статистический характер, существует неопреде­ленность, т. е. ограничение разнообразия, свойственное микро­частицам. Эта неопределенность существует объективно, неза­висимо от познающего субъекта, от точности его приборов.

Неопределенность, или неполная передача информации сопровождает, обычно любой реальный процесс отражения. Все­стороннее и полное отражение объектами друг друга возмож­но лишь как бесконечный процесс, имеющий определенную направленность от менее адекватного отражения к более адек­ватному.

Признание кроме динамического статистического типа от­ражения нацелено против метафизического понимания процесса отражения, признающего лишь динамическую детерминирован­ность отражающего отражаемым и отрицающего объективное существование неопределенности, ограничения разнообразия при отражении. Вместе с тем несостоятельна и субъективно­идеалистическая интерпретация неопределенности в процессе отражения. Эта неопределенность не зависит исключительно от субъекта, а обусловлена объективно действующими закономер­ностями ограничения разнообразия.

Информация и ее свойства

Объекты материального мира находятся в состоянии непрерывного изменения, которое сопровождается обменом энергии . Все виды сопровождаются появлением сигналов . При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств - это явление называется регистрацией сигналов.

Данные - это зарегистрированные сигналы.

Информация - это сведения об объектах и явлениях окружающей среды, их параметров, свойствах и состояниях, которые уменьшают имеющуюся в них степень неопределенности, неполноту знаний. Данные могут рассматриваться как записанные наблюдения , которые не используются, а пока хранятся.

Свойства информации, определяющие ее качества

Под качеством информации понимают степень её соответствия потребностям потребителей. Свойства информации являются относительным, так как зависят от потребностей потребителя информации. Выделяют следущие свойства, характеризующие качество информации:

  • Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.
  • Полнота . Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.
  • Достоверность - свойство информации быть правильно воспринятой . Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть:
    • преднамеренное искажение (дезинформация);
    • непреднамеренное искажение субъективного свойства;
    • искажение в результате воздействия помех;
    • ошибки фиксации информации;

В общем случае достоверность информации достигается:

    • указанием времени свершения событий, сведения о которых передаются;
    • сопоставлением данных, полученных из различных источников;
    • своевременным вскрытием дезинформации;
    • исключением искаженной информации и др.
  • Адекватность - степень соответствия реальному объективному состоянию дела.
  • Доступность информации - мера возможности получить ту или иную информацию.
  • Актуальность информации - это степень соответствия информации текущему моменту времени.

Также можно классифицировать свойства информации, характеризующие её качество, следующим образом [Акулов О. А., Медведев Н. В. Информатика: базовый курс. - М.: Омега-Л, 2004. С. 42.]:

  • Содержательность или внутреннее качество (качество, присущее собственно информации и сохраняющееся при её переносе из одной системы в другую)
    • Значимость (свойство сохранять ценность для потребителя с течением времени)
      • Полнота (свойство, характеризуемое мерой её достаточности для решения определенных задач)
      • Идентичность (свойство, заключающееся в соответствии информации состоянию объекта)
    • Кумулятивность (свойство информации, заключённой в массиве небольшого объёма достаточно полно отражать действительность)
      • Избирательность
      • Гомоморфизм
  • Защищённость или внешнее качество (качество, присущее информации, находящейся или используемой только в определённой системе)
    • Сохранность
    • Достоверность
    • Конфиденциальность

Операции с данными

Для повышения качества данные преобразуются из одного вида в другой с помощью методов обработки. Обработка данных включает операции:

1) Ввод(сбор) данных - накопление данных с целью обеспечения достаточной полноты для принятия решений

2) Формализация данных - приведение данных поступающих из разных источников, к одинаковой форме, для повышения их доступности.

3) Фильтрация данных - это отсеивание «лишних» данных, в которых нет необходимости для повышения достоверности и адекватности.

4) Сортировка данных - это упорядочивание данных по заданному признаку с целью удобства использования.

5) Архивация - это организация хранения данных в удобной и легкодоступной форме.

6) Защита данных - включает меры, направленные на предотвращение утраты, воспроизведения и модификации данных.

7) Транспортировка данных - прием и передача данных между участниками информационного процесса.

8) Преобразование данных - это перевод данных из одной формы в другую или из одой структуры в другую.

Кодирование данных

Для автоматизации работы с данными, которые относятся к различным типам, необходимо унифицировать их форму представления - состоящий в выражении данных одного типа, через данные другого типа. Системный код вычислительной техники - двоичное кодирование, основанное на предоставлении данных в виде последовательных двух знаков: 1 и 0. Эти знаки называются двоичными цифрами-binary digit или bit.

Одним битом выражаются два понятия: 0 или 1.

Двумя битами- четыре понятия: 00 ,01, 10, 11.

Тремя битами - восемь понятий: 000,001,010,011,100,101,110,111

Увеличение на единицу количества разрядов двоичной системы кодирования приводит к увеличению в 2 раза количества значений, которое может быть ими выражено. Общая форма N=2 m , где N - количество независимых кодируемых значений; m - разрядность двоичного кодирования.

Кодирование целых и действительных чисел

Алгоритм превода целых десятичных чисел в двоичные: 1) Разделить число на 2. Зафиксировать остаток (0 или 1) частное.

2) Если частное не равно нулю, то разделить его на 2 и т.д. пока частное не станет равно 0. Если частное 0, то записать все полученные остатки, начиная с первого с права на лево.

Чтобы получить обратную,надо проссумировать степени 2 соответа не нулевого разрядам записи числа.

Для кодирования целых чисел: от 0 до 255 - 8 бит (восьмиразрядного двоичного ввода) от 0 до 655 - 16 бит от 0 до 16,5 млн - 24 бит

Кодирование текстовых данных

Если каждому символу алфавита сопоставить определенное целое или не целое число (например,порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию и звуковую. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Для того чтобы весь мир одинаково кодировал текстовые данные, нужны единые таблицы кодирования, а это пока невозможно из-за противоречий между символами национальных алфавитов, а также противоречий корпоративного характера.

Для английского языка, захватившего де-факто нишу международного средства общения, противоречия уже сняты. Институт стандартизации США (ANSI - American National Standard Institute) ввел в действие систему кодирования ASCII (American Standard Code for Information Interchange - стандартный код информационного обмена США).В системе ASCII закреплены две таблицы кодирования - базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255. В СССР в этой области действовала система кодирования КОИ-7 (код обмена информацией, семизначный). Однако поддержка производителей оборудования и программ вывела американский код ASCII на уровень международного стандарта.

Предмет и задачи информатики

Информатика - это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Предмет информатики составляют следующие понятия:

Аппаратное обеспечение средств вычислительной техники;

Программное обеспечение средств вычислительной техники;

Средства взаимодействия аппаратного и программного обеспечения;

Средства взаимодействия человека с аппаратными и программными средствами.

В информатике особое внимание уделяется вопросам взаимодействия. Для этого даже есть специальное понятие - интерфейс . Методы и средства взаимодействия человека с аппаратными и программными средствами называют пользовательским интерфейсом . Соответственно, существуют аппаратные интерфейсы, программные интерфейсы и аппаратно-программные интерфейсы.

В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений:

Архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);

Интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);

Программирование (приемы, методы и средства разработки компьютерных программ); „

Преобразование данных (приемы и методы преобразования структур данных);

Защита информации (обобщение приемов, разработка методов и средств защиты данных);

Автоматизация (функционирование программно-аппаратных средств без участия человека);

Стандартизация (обеспечение совместимости между аппаратными и программными средствами, а также между форматами представления данных, относящихся к различным типам вычислительных систем).

Ссылки

  • Информатика.базовый курс. Под редакцией С.В. Симановича 2004

Wikimedia Foundation . 2010 .

Смотреть что такое "Информация и ее свойства" в других словарях:

    Информация - (Information) Информация это сведения о чем либо Понятие и виды информации, передача и обработка, поиск и хранение информации Содержание >>>>>>>>>>>> … Энциклопедия инвестора

    Информация - – любой вид знаний о предметах, фактах, понятиях и т. д. проблемной области, которыми обмениваются пользователи информационной системы. … … Энциклопедия терминов, определений и пояснений строительных материалов

    информация - (от лат. informatio разъяснение, изложение) 1) фундаментальное проявление динамических свойств мира, его структурно смыслового и качественноколичественного разнообразия; 2) в документалистике сообщения, сведения, передаваемые людьми друг другу в… … Большая психологическая энциклопедия

    Информация (от лат. informatio ‒ разъяснение, изложение), первоначально ‒ сведения, передаваемые одними людьми другим людям устным, письменным или каким либо другим способом (например, с помощью условных сигналов, с использованием технических… … Большая советская энциклопедия

    Сущ., кол во синонимов: 1 негатив (8) Словарь синонимов ASIS. В.Н. Тришин. 2013 … Словарь синонимов

    - (от лат. informatio разъяснение, осведомление) любые сведения и данные, отражающие свойства объектов в природных (биол., физ. и др.), социальных и техн. системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без… … Физическая энциклопедия

    информация шаблона - это любые характеристики, связанные с поведением объекта. Зачастую информация шаблона назначается системами управления идентичностью на основе репутации и последних итераций, в отличие от определения ее самим объектом. Примеры информации шаблона … Справочник технического переводчика

    - (лат. informatio разъяснение, изложение, осведомленность) одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких либо данных, знаний и т.п. В границах системно кибернетического подхода И. рассматривается в… … Новейший философский словарь

    Для улучшения этой статьи желательно?: Найти и оформить в виде сносок ссылки на авторитетные источники, подтверждающие написанное. Добавить иллюстрации. Добавить информацию для других стран и реги … Википедия

    В математической статистике и теории информации информацией Фишера называется дисперсия функции вклада выборки. Эта функция названа в честь описавшего её Рональда Фишера. Содержание 1 Определение 2 Свойства … Википедия

Книги

  • Свойства конструкционных материалов атомной промышленности. Стали и сплавы для трубопроводов АЭС. Том 3 , Каширский Ю.В.. Сборник содержит сведения о более чем 40 отечественных и 60 иностранных марках сталей и сплавов, применяемых в атомной энергетике. В нем подробно рассмотрены характеристики и свойства…

Дуальность окружающего мира

События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соответствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу относятся события из мира живой природы .

Изменениями обычно называют все, что происходит с окружающими нас объектами и с нами самими с течением времени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некоторый данный момент. Изменяется все: "Ничто не вечно под луной". Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежностью определяют направления, характер и скорость их изменений, будь то атом, человек или Вселенная. Конечным итогом таких изменений всегда и неизбежно является гибель, распад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней среде, что одни процессы в них идут чаще, другие реже, адекватно условиям среды.

Рассмотрим по одному примеру из первого и второго классов объектов: рост кристаллов и размножение бактерий. Кристаллы могут расти и размножаться, присоединяя к "матрице" –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут разлагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, – в данном примере бактерии, – они разлагают окружающие их вещества и уже из полученных "элементарных кирпичиков" строят заново те молекулы, которые используют для своего роста и размножения.

Кристаллы для своего роста используют то, что уже есть, живые организмы создают то, что им нужно, используя окружающие их вещества для получения строительного материала и свободной энергии.

Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различающиеся между собой – различия эти не случайны, а определяются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над прошлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, всегда имеет в виду конечную цель – размножение данного организма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т. е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организма – его самовоспроизведение.

Чтобы понять природу того или иного изменения, достаточно ответить на вопрос: "Почему?". Вопросы типа "Почему светит Солнце?", "Почему ржавеет железо?", "Почему орел может летать?" полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа "Для чего светит Солнце?" или "Для чего идет дождь?" лишены смысла и ответов не имеют, тогда как вопросы типа "Для чего летает орел?" вполне осмысленны и предполагают тот или иной ответ.

Дело в том, что полет орла, как и другие действия живых объектов, относятся к типу целенаправленных. Когда же речь идет о целенаправленных действиях, доминирующее значение приобретает вопрос "Для чего?". Ответ на вопрос "Почему?" здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. "Для чего цветут розы?", "Для чего поют соловьи?" – вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и животные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять...

Казуальность и телелогичность – вот те два принципа, которые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоящее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возникают и развиваются островки иного мира, где настоящее подчиняется будущему, где те или иные события происходят не только "потому, что...", но также "для того, чтобы...". Этот вторичный по отношению к миру косной материи мир жизни становится все могущественнее, он постепенно как бы вбирает, трансформирует в себя окружающую среду, все в большей степени контролируя происходящие в ней изменения, направляя их в нужное ему русло.

Чтобы избежать возможных недоразумений, заметим, что антропоморфизм таких терминов, как "контролирует", "стремится" и т. п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет.


Целенаправленность и целесообразность

Таким образом, мы наметили свойство, необходимо присущее всем живым организмам. Свойство это – осуществлять целенаправленные действия. Обеспечивается это тем, что живые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т. е. организованы соответствующим образом, или целесообразно.

Сопоставим теперь два термина – "целенаправленность" и "целесообразность". Термин "целенаправленность" характеризует действие в предположении, что цель его известна или может быть установлена. Термин же "целесообразность" допускает двоякую интерпретацию: такую организацию, которая делает возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две интерпретации термина "целесообразность" не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия.

Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом – построить его в соответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила существовавшую вплоть до середины XIX века веру в присущую живым организмам "жизненную силу", или "энтелехию", вызывающую их из небытия и управляющую их жизнедеятельностью и размножением.


Целенаправленное действие. Его компоненты и характеристики.

Специфичность целенаправленного действия для живых организмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия "целенаправленное действие" попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что – специфического.

Пусть s – "исходная ситуация" или пространство режимов, в котором могут происходить различные события. Пусть Z - одно из таких событий, вероятность осуществления которого 0? р?1. Тогда спонтанное осуществление Z можно описать преобразованием (10)

где w - другие изменения исходной ситуации, неизбежно сопутствующие осуществлению Z.

Назовем событие Z "целью". Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет "целенаправленное действие". Описать его можно как (11)

где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q – "механизм", или оператор, применение которого в условиях s приводит к желаемому результату; I – информация, на основании которой этот оператор построен; и w – события, неизбежно сопутствующие осуществлению Z, или "побочные продукты" достижения цели.

Назовем R, S, Q, I, Z и w компонентами целенаправленного действия, а р и Р – его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправленного действия: любое действие, сколь бы ни было оно простым или сложным, можно полностью описать, задав его компоненты и характеристики.

Сопоставляя выражения (10) и (11), мы видим, что целенаправленные действия отличаются от спонтанных изменений лишь в одном отношении – наличием компонента Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обусловливается только тем, что оператор Q организован так, чтобы его "вмешательство" в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным.


Информация

Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, отличающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т. е. заранее имеющейся программой или планом. Совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией . Обозначать информацию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информацией I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации.

Таким образом, мы определили информацию как "руководство к действию", как то, что необходимо для построения любого оператора . Естественно возникают вопросы о правомочности и адекватности такого определения.

Мы используем операционное определение понятия "информация", а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого способа не произволен: опыт показывает, что понятие "информация" невозможно вывести из представлений, относящихся к миру вещей, – ведь, как отмечал Н. Винер , "информация есть информация, а не материя и не энергия". Определение информации через описание форм ее проявления и ее свойств представляется вполне правомочным. Формой проявления информации, как мы видели, и является оператор – необходимый компонент целенаправленного действия.

Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином.

Обыденное понимание слова "информация" наиболее близко к его исходному значению: это либо "сведения, содержащиеся в сообщении" (имя существительное), либо "процесс передачи сведений" (глагол). В обоих случаях слово "информация" отражает тесную связь между "сведениями" (собственно "информация") и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от "отправителя" (источника информации) к "адресату" (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика использования информации определяется ее семантикой. Предполагается при этом, что одни и те же сведения – т. е. информация, обладающая одной и той же семантикой, – могут быть переданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т. е. материальный объект. Само собой разумеется, что природа этого феномена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно передавать самую разную информацию.

Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохранять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и передачей, позволяет также "запасать информацию впрок", про запас, на всякий случай. Физическая природа сообщений или записей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть – и, по существу, всегда бывает – разная.

Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационными актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществляться сам по себе, спонтанно, – для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, будем называть информационной системой. Элементарной информационной системой будем называть такую, дальнейшее подразделение которой приведет к расчленению механизмов, обеспечивающих осуществление отдельных элементарных информационных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.

Ниже мы увидим, что все эти особенности информации, хорошо знакомые нам из повседневного опыта, являются следствиями из ее свойств, общих для всех известных нам видов информации.

Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными системами. При этом мы все время должны иметь ввиду, что информация может существовать только в какой-либо информационной системе, в виде "записи" на том или ином "носителе"; что семантика информации не связана со способом ее записи и физической природой носителя.

Так как слово "информация" первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой информационные системы высокого ранга, сложнейшим образом переплетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для человека информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием.

Информацией называют также те сведения, которыми обмениваются между собой животные и которые, будучи восприняты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сигналов, в ходе обучения (например, родителями детенышей), путем подражания другим особям или создается в мозгу животного заново, на основе собственного жизненного опыта. Это –поведенческая информация. Информационными системами, оперирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одноклеточные.

Третий известный нам вид биологической информации – генетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и вирусов. Специфическими для этой информации системами являются все генетические компоненты живых организмов.

Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом.

На последнем утверждении стоит дополнительно остановиться. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень характерны передача и утеря информации. Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в иерархически подобную или более высокую информационную систему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информации. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, например генетической, может иметь разные последствия для организмов, в том числе и положительные, но в определенных ситуациях она может попадать во внешнюю среду вне своей информационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информационную систему (горизонтальный перенос генетической информации, см., например ), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Изменение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, однако, совершенно ясно, что возникать самостоятельно, вне живых организмов, биологическая информация не способна .

Однако как в обыденной жизни, так и в научной литературе "информацией" нередко называют все, что может воздействовать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источниками таких воздействий живые или неживые объекты . В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исчезают различия между совокупностью сигналов, обладающей семантикой, родственных источнику и приемнику, и "слепым" воздействием одного объекта на другой.

Чтобы отличать сигналы или воздействия, содержащие информацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особенностях материала носителя, способа фиксации, выбора языка и кода и т. д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от того, известен их источник или нет. Действительно, какая информация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные "сигналы" могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать "источниками" информации, – и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюдений, измерений и т. п. процедур, производимых человеком: обработку их нередко называют "обработкой информации", хотя на самом деле это есть один из этапов создания новой информации в человеческом мозге, а не "извлечение" ее из наблюдений и измерений.

Таким образом, внешние воздействия, воспринимаемые живыми организмами, можно подразделить на два класса: сообщения, или "носители информации", источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воздействий, которым подвергаются живые организмы, весьма существенно для ясного понимания того, что именно представляет собой информацию.

Выше мы видели три вида биологической информации, и четвертого нам не известно. Это – генетическая информация, поведенческая и логическая, или человеческое знание. Для каждого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информационные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей.


Фиксируемость информации. Её носители.

Свойства, присущие всем видам информации, можно разделить на две группы, внутри каждой из которых они тесно связаны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой – ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах.

Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи "ни материей, ни энергией", она может существовать только в зафиксированном состоянии. Никто никогда нигде не встречался с информацией, которая была бы в "свободном виде", а не в виде "записи" на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т. е. не имеют никакого отношения к ее семантике.

Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отношения, – это физическая природа носителя и специфика "считывающего устройства" той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе.

Адекватность способа фиксации информации способу ее считывания означает, что способ записи, носитель и считающее устройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериодическую форму. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв.

Важнейшей особенностью фиксации любой информации является возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность символов или сигналов, используемых для фиксации и передачи информации, или возможность считывания их в линейной последовательности.

Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информации может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригодных для фиксации информации. А так как простейшим вариантом различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциальным носителем информации может быть любой феномен окружающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.

Следует, однако, проводить строгое различие между потенциальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект информацию или нет.

Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информации и могут ли они существовать вне своих информационных систем?

Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, составленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным способом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, составленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, алфавит, способ "печати" и природу "подложки". Каждый из этих видов носителей может варьировать, разрушаться и исчезать независимо один от другого. Очевидно, однако, носители информации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: систему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать.

Физические объекты, содержащие информацию, могут находиться как "внутри" своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в результате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от информационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информационной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел любой информации, "вырвавшейся" из своей информационной системы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убеждены, во-первых, в том, что возникла-то она обязательно в какой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь "деградирует", но не "существует".

Теперь мы вплотную подошли к проблеме распознавания. Если имеется некий физический объект и мы хотим выяснить, содержит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или может относиться? какие способы фиксации информации здесь использованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информации на данной подложке, а не спонтанное ее возникновение, проистекающее из самой природы объекта. Ведь сведения, которые мы "получаем", анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объекте содержащейся, – если, конечно, она там имеется.


Инвариантность информации по отношению к носителям

С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физической природе носителей . Это важнейшее свойство информации, и представлять его себе следует очень ясно.

Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее семантики, может быть "записана" на любом языке, любым алфавитом, т. е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни семантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее автономность и суверенность, которые сохраняются как бы наперекор судьбе, обрекающей информацию быть вечным узником мира вещей – ее физических носителей.

Инвариантность информации обусловливает возможность использовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных актов – создания, передачи, приема, хранения и использования информации. Для "перевода" информации с одной системы записи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвариантности. Таким образом, именно инвариантность лежит в основе возможности понимания информации – перевода ее с чуждого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инвариантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.

Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.


Количество информации и емкость информационной тары

Инвариантность информации по отношению к носителям создает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т. е. как бы "сведения ее к единому знаменателю". Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой (12)

где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р 1 = р о = 0,5) величина Н м = М. Другими словами, количество информации, выраженное в битах, равно числу знаков бинарного алфавита, необходимому для ее записи.

Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по отношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измерения этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.

Свойство инвариантности, как мы уже видели, позволяет утверждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли "информационной тары", которая может содержать информацию, причем любую. Если представление о количестве информации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной тары должна быть одной и той же. Полагая элементарные носители информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по существу означает, что для записи этого сообщения бинарным кодом требуется М букв.

Формулу (1) можно записать несколько иначе, а именно (13):

Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данного количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может "вместиться" в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.

Итак, мы пришли к выводу, что информационная емкость i-го символа любого алфавита, выраженная в битах, равна –log 2 p i , где p i есть частота встречаемости этого символа в данном языке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.

Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации получает адресат, воспринимая каждую из букв сообщения? Количество такой информации он и предложил выражать через величину Н и постулировал аддитивность этой величины по отношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих сообщение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители содержат и содержат ли они ее вообще. Однако для теории информации эти различия весьма существенны, и вот почему.

Рассмотрим два сообщения: "Каин убил Авеля" и "инилА ваКу лебя". Оба они состоят из одинаковых 15 знаков, но первое – вполне осмысленно, т. е. содержит информацию, а второе представляет собой случайную последовательность букв и никакой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации –около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества информации, а емкости информационной тары. Первая фраза – это тара, "полностью загруженная информацией", а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не зависит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Если тара заполнена, то ее емкость может служить мерой количества содержащегося в ней груза. Эти простые соображения позволяют сделать три вывода. Во-первых, если H-функцию считать емкостью информационной тары, то ее в равной мере можно прилагать и к осмысленным, и к бессмысленным наборам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информации, которая в ней может содержаться. В-третьих, при измерении в битах количество информации В, содержащейся в сообщении, заключено в интервал 0?В?Н, где Н – емкость составляющих сообщение носителей информации. Н сообщения, таким образом, – это верхняя граница того количества информации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте.

К этим же выводам можно прийти и другим путем, рассматривая смысловое содержание понятия "избыточности", или условную вероятность встречаемости i- ro символа после 1-го, 2-го и т. д., а также после разных сочетаний двух, трех и т. д. символов . При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины pi независимо от i, стремятся к единице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары информацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер , то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре информации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно случайном расположении составляющих сообщение букв.

Теперь вернемся опять к вопросу о дискретности и непрерывности информации. То обстоятельство, что элементарные единицы носителей информации – буквы – дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуальности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определенному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересному следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, записанного 24-х буквенным алфавитом, H = 78,37 бит, то при записи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изменяется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хорошо соответствует описанной ситуации.

И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о "полной" или "неполной" информации, имея в виду достаточность или недостаточность данной информации для построения какого-либо оператора. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпывающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как "полнота" и "неполнота". Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненности ею носителей), но не по самой информации, как таковой. Ведь "информация есть информация, а не материя и не энергия", и этого не следует забывать.

Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действительности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т. е. с увеличением Н разность между М теоретическим и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфавитами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют.

Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипостасями ее носителей? языковой и алфавитной. Способ фиксации информации и природа ее носителя, столь важные для сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее семантикой, – т. е. семантика информации в пределах любого заданного ее количества может быть любой.


Бренность информации

Итак, каждая данная информация, – точнее, каждый ее экземпляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловливает, прежде всего, такое свойство информации, как ее бренность, т. е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее – о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который использован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с деформацией же носителя зафиксированная на нем информация изменяется или разрушается, т. е. исчезает. Таким образом, информация погибает только со своими носителями...


Транслируемость, размножаемость и мультипликативность информации

Бренности информации противостоит такое ее свойство, как транслируемость, т. е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи.

Пусть V p - средняя скорость размножения информации в результате трансляции, a V r – средняя скорость ее гибели. Тогда отношение (14)

будет характеризовать "жизнеспособность" информации. Действительно, при L < 1 данная информация обречена на вымирание, независимо от абсолютного значения V p ; L = 1 – нестабильное состояние, соответствующее "прозябанию" информации ; a L>1означает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта удвоения.

Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т. е. возможность одновременного существования одной и той же информации в виде некоторого числа идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не ограничено, т. е. может быть сколь угодно большим.


Изменчивость информации

Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям.

Если под гибелью информации понимать как ее исчезновение или разрушение, так и "обессмысливание", то под изменчивостью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут приводить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых символов или замена одних символов на другие. Масштабы таких событий (т. е. число выпавших, встроенных или замененных символов), а также причины, к ним приводящие, могут быть самыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.

Подчеркнем, что транслируемость, изменчивость и мультипликативность информации – вот те "три кита", на которых базируются динамика и эволюция любой информации.


Действенность информации. Операторы.

Выше мы перечислили ряд свойств, производных от первой ключевой особенности информации – ее фиксируемости. Это – инвариантность информации по отношению к носителям, ее измеряемость, бренность, транслируемость, размножаемость, мультипликативность и изменчивость. Вторым ключевым свойством информации является ее действенность, на чем мы сейчас и остановимся.

Действенность информации может выявляться лишь в адекватной ей информационной системе, – вне таковой любая информация, не будучи "ни материей, ни энергией", абсолютно пассивна. Однако, будучи включена в свою информационную систему, информация, соответственно ее семантике, может быть использована для построения того или иного оператора, который, в свою очередь, будучи помещен в подходящее пространство режимов, может совершать те или иные целенаправленные действия. Оператор, таким образом, выступает в роли посредника, необходимого для проявления действенности информации. В связи с этим сам оператор может рассматриваться как реализованная или материализованная информация.

Действенность информации, проявляющаяся при посредстве оператора, является необходимым условием ее существования. "Бездеятельная" информация обречена на гибель и разрушение. Вот почему можно утверждать, что каждая информация стремится материализоваться - воплотиться в соответствующий оператор. Ведь информация, лишенная такой способности или утратившая ее, обречена на гибель.


Семантика информации. Понятие цели.

С действенностью информации тесно связано, прежде всего, такое ее свойство, как содержательность, или семантика. Из сказанного выше уже ясно, что семантика информации может проявляться лишь одним путем – в специфике кодируемого ею оператора. Возможность быть использованной – в ее материализованном виде, т. е. в качестве оператора, – для достижения той или иной цели обусловливает ценность информации. То очевидное обстоятельство, что любой оператор, вообще говоря, может быть использован для достижения разных целей, определяет важнейшее свойство информации, которое может быть названо полипотентностью.

Действенность информации, как мы уже отмечали, может проявиться только через оператор – материальный объект, машину, созданную на ее основе. Заметим, что при реализации информации в оператор никакой "материализации" информации в том смысле, что информация исчезает, а вместо нее возникает оператор, не происходит. Но независимо от способа реализации справедливо утверждение, согласно которому каждая данная информация однозначно определяет оператор, для построения которого она использована. Однозначность здесь понимается в таком же смысле, как однозначность определения фенотипа генотипом. Определенность информации и позволяет ей проявить свою семантику.

Это отнюдь не тривиальное определение семантики информации требует более тщательного рассмотрения. В ходе этого рассмотрения выявится, что такое представление о семантике отражает, если можно так сказать, лишь "средний слой" этого понятия, имеющего как бы трехслойную структуру. Но этот средний слой реален и осязаем, тогда как верхний и нижний, или базовый, как бы размыты и не всегда очевидны.

Верхним наружным слоем семантики можно называть то, что обычно и связывают с этим словом, – ответ на вопрос "О чем повествует данная информация?". Этот слой легко выявляется в том виде информации, который мы называем логической, труднее – в поведенческой информации, и почти не выявляем в генетической информации. Верхний слой, однако, сам по себе не имеет смысла без возможности обеспечения организации оператора, что довольно ясно проступает в случае поведенческой информации и доминирует в случае информации генетической. Однако средний слой также отступает на второй план перед вопросом "Для чего нужен данный оператор?" – а ответ на этот вопрос, даваемый нижним слоем, и проясняет суть дела.

Вспомним, что свойство бренности означает, что данная информация неизбежно погибнет, если не будет вовремя ретранслирована или размножена. Сама по себе информация размножаться не в состоянии. Реплицирует информацию только соответствующее устройство, входящее во включающую его информационную систему. Об осознанности, преднамеренности подобного действия не может быть и речи, – оно осуществляется как бы само по себе, автоматически, при переходе информационной системы в соответствующее состояние. Все это позволяет утверждать, что семантика любой информации должна определять такие особенности оператора, благодаря которым хотя бы в некоторых ситуациях происходило повышение вероятности репликации данной информации. Третий слой семантики любой информации и представляет собой сведения о путях ее воспроизведения в некотором пространстве режимов. Собственное воспроизведение – цель, достижение которой обязательно "заложено" в семантику любой информации.

Здесь, как и в случае с вопросом о дискретности или непрерывности информации, мы опять сталкиваемся с зыбкостью, расплывчатостью ряда понятий, казавшихся в мире вещей ясными и определенными. Сделанное выше утверждение не следует понимать дословно, будто всякая информация свидетельствует только о том, как можно ее воспроизвести. Ни в коем случае. Представим себе множество информации, последовательно поступающих в универсальный автомат фон Неймана (см. ниже, главу 3). Пусть большинство из них непригодны для того, чтобы включить механизм их воспроизведения, и по мере старения их носителей со временем погибнут. Лишь та информация, которая в данной системе и в данном пространстве режимов окажется обладающей такой семантикой, которая прямо или косвенно пригодна для включения реплицирующего режима, окажется воспроизведенной в виде одной или нескольких копий, и ее существование продлится постольку, поскольку ее воспроизведение будет опережать гибель ее носителей. Это не означает, что семантика других, погибающих, информации была иной природы, – просто она не соответствовала в этом, решающем для продления существования информации, смысле тем условиям, в которых она оказалась; в другой ситуации результат мог бы быть совершенно иным. Поэтому по отношению к тем условиям, в которых информация регулярно подвергается воспроизведению, утверждение о том, что сущность семантики информации есть способ и условия ее воспроизведения, приобретает оттенок тривиальности. Однако отнюдь не тривиально утверждение, что эволюция семантики всегда и неизбежно направлена в эту и только в эту сторону, – утверждение, которое, по существу, будет следствием рассмотрения закономерностей динамики информации (глава 6).

В заключение этой главы можно сказать следующее. Именно семантика информации обусловливает специфику оператора и тем самым того целенаправленного действия, которое данный оператор может осуществить. Но при этом природа целенаправленного действия всегда и неизбежно такова, что его осуществление должно прямо или косвенно повышать вероятность воспроизведения кодирующей его информации. Именно в этом смысле семантика информации всегда представляет собой отражение тех условий, которые необходимы и достаточны для ее (информации) воспроизведения.

Тут уместно напомнить, что принцип самоорганизации материи основан на кооперировании элементов в систему, в которой свойства ее в целом будут отличны от суммы свойств ее элементов. Флуктуации в открытых системах и дарвиновский отбор помогут найти вариант, свойства которого позволят повысить выживаемость информационной системы или эффективность использования внешней среды. Из этого можно заключить, что целенаправленность на выживание является принципиальным свойством любой самоорганизующейся системы.

Таким образом, полезность – свойство информации содействовать осуществлению в определенном месте и в определенное время некоторого события, которое естественным путем там не произошло. Когда же говорят об истинности информации, то имеют в виду адекватность отражения данной информацией той или иной уже существующей ситуации. Однако единственным критерием такой адекватности может служить только успешность осуществления в этой ситуации какого-либо целенаправленного действия. Таким образом, если полезность – как бы потенциальное свойство информации, то ее истинность выявляется в ходе реализации этого ее свойства.

Так мы подошли к одному из классических гносеологических утверждений, согласно которому критерием истины является практика, т. е. реальная вещественная деятельность. При этом из полипотентности информации следует как возможность существования большого числа в равной мере истинных, но не совпадающих друг с другом информации, так и возможность градаций степени истинности, а также ее относительность, т. е. зависимость от ситуации и цели.

Рассмотрим теперь случай, когда целью является трансляция самой информации, – то, что в явном или неявном виде предполагается семантикой любой информации. В таком случае в роли субъекта будет выступать эта информация, а ее истинность окажется условием ее собственного успешного существования. Здесь практика (т. е. осуществление целенаправленного действия) будет уже не только критерием истинности, но и критерием жизнеспособности информации. Таким образом, мы пришли к интересному и отнюдь не тривиальному выводу, что жизнеспособность информации обусловливается в конечном счете ее истинностью.

Истинность информации – необходимое, но еще не достаточное условие ее жизнеспособности. Если какая-либо информация никому не нужна и никем не используется, то истинность ее просто не сможет быть выявлена. Такая информация обречена на гибель не ввиду ошибочности, а из-за ее ненужности. Следовательно, для обеспечения жизнеспособности информации требуется не только ее истинность, но и ее нужность, ее полезность, т. е. гармония объективного и субъективного аспектов информации, отражаемых этими терминами.


Полипотентность информации

"Ничто не возникает в теле для того, чтобы мы могли воспользоваться этим: напротив, тому, что возникло, находится применение", – писал Тит Лукреций Кар около двух тысяч лет тому назад. Это высказывание как нельзя лучше отражает то свойство информации, которое мы назвали полипотентностью . Проявляется полипотентность в том, что оператор, представляющий собой продукт реализации семантики данной информации, может быть использован для осуществления самых разных целенаправленных действий, т. е. как для достижения разных целей в данном пространстве режимов, так и для достижения одинаковых или разных целей в разных пространствах режимов, или в разных ситуациях. Так, одним и тем же молотком можно вбить гвоздь, разбить стекло и проломить голову.

Свойство полипотентности, которое означает, что одна и та же информация может быть использована для решения самых разных задач, легче проиллюстрировать, чем доказать, – поэтому его следует рассматривать как аксиому. Свойство полипотентности не отражает семантическую неоднородность информации – семантика любой информации всегда совершенно определенно и однозначно отображается в операторе. Полипотентность не означает также, что на основании одной и той же информации могут быть созданы несколько разных операторов, – такое представление коренным образом противоречит определению информации, приведенному выше (см. главу 1). Все это следует учитывать, обсуждая полипотентность информации.

Из свойства полипотентности следует два вывода, имеющих кардинальное значение для общей теории информации. Проследим эти выводы подробнее, ибо ниже нам неоднократно придется к ним обращаться.

Вывод первый. Располагая некоторой информацией или созданным на ее основе оператором и даже зная, для достижения какой цели эти информация и оператор предназначались, невозможно перечислить все ситуации и цели, для достижения которых с той или иной вероятностью они могут оказаться пригодными. Множество комбинаций "ситуация-цель" можно считать бесконечным, как и то подмножество, в пределах которого данную информацию можно использовать для осуществления целенаправленных действий. Если семантику рассматривать как сущность информации, а результат целенаправленного действия – как проявление этой сущности в данных условиях, то полипотентность будет естественным следствием зависимости этого проявления от условий, т. е. от ситуации и цели. Хорошо известно, что одна и та же сущность может обусловливать множество разных свойств.

Таким образом, любая информация и оператор, на ней основанный, всегда могут получить априори не предполагавшиеся применения. Такое непредсказуемое заранее использование информации может подчас оказаться даже более эффективным и ценным, нежели то, для которого она первоначально предназначалась. В математике подобную ситуацию античные мыслители называли поризмом .

Вывод второй. Основываясь на свойстве полипотентности, можно утверждать, что для достижения одной и той же цели в данной ситуации с тем или иным эффектом может быть использовано множество разных информации и основанных на них операторов. Это множество всегда будет открытым, так как априори невозможно перечислить все существующие и все возможные информации, а тем более предугадать, какова будет эффективность их использования в некоторой ситуации.

Принципиальная невозможность перечислить все ситуации и цели, где может получить применение данная информация, а также перечислить все информации, которые могут получить применение для достижения данной цели даже в данной определенной ситуации, и тем более невозможность предугадать последствия этих применений – это характернейшая особенность мира, где царствует информация. С другой стороны, свойство полипотентности – вернейший залог жизнеспособности информации, которая не только сама подвергается постоянной изменчивости, но и, будучи использована для осуществления целенаправленных действий, всегда и неизбежно вызывает непредвидимые изменения самого пространства режимов. Как мы увидим ниже, свойство полипотентности, наряду с изменчивостью, играет важнейшую роль в эволюции информации.


Ценность информации

Помимо количества информации, измерять и выражать в цифрах можно и такое ее свойство, как ценность. В основе определения количества информации, как мы помним, лежат ее фиксируемость и инвариантность, а также "правило Шеннона", задающее емкость информационной тары. В основе определения ценности информации лежат такие ее свойства, как действенность и полипотентность, а также предложенный А. А. Харкевичем способ исчисления ценности через приращение вероятности достижения той цели, для чего данная информация используется. Приращения вероятности, однако, могут быть рассчитаны по-разному, и нам предстоит сделать выбор между возможными вариантами.

Если, согласно определению целенаправленного действия (см. ), через Р обозначить осуществление события цели в данном пространстве режимов при использовании данной информации, а через р? спонтанное осуществление этого же события, то "приращение вероятности достижения цели" можно выразить и как Р-р, и как Р/р, и как log(P/ p). Учитывая, что Р и р могут изменяться от 0 до 1, мы увидим, что в первом случае ценность информации С может варьировать в пределах от плюс 1 до минус 1, во втором – от нуля до бесконечности, а в третьем – от минус бесконечности до плюс бесконечности. Исходя из удобства дальнейшего изложения, примем такой способ исчисления ценности информации, чтобы ее величина изменялась от 0 до плюс 1. Для этого ценность можно выразить через отношение (15)

Казалось бы, этого же интервала изменчивости С можно достигнуть, положив Р < р и выражая С = Р-р или С = Р. В первом из этих случаев, однако, при приближении р к Р величина С будет стремиться к 0, даже если р = 1 и, следовательно, далее возрастать вообще не может. Во втором же случае нижнее значение С будет определяться величиной Р, а не свойствами информации.

Против определения (15) ценности информации можно возразить, что она не принимает отрицательных значений, т. е. не учитывает ситуацию с дезинформацией, когда Р <р. Но такая ситуация может возникнуть лишь в двух случаях. Один из них – это когда объект, поставляющий или использующий информацию, стремится уменьшить вероятность осуществления некоторого события. Тогда цель для него неосуществление Z, спонтанная вероятность чего p" = 1- p, и в этом случае Р, которое меньше, чем р, будет превышать значение р", и, следовательно, требование С? 0 будет соблюдено. Второй случай – это ошибочное использование неподходящей информации, что требует коррекции, а не логического анализа. Ситуация с "сознательным обманом" целиком включается в первый случай.

Обосновав таким образом избранную нами меру ценности информации, рассмотрим более внимательно содержание этого понятия.

Во-первых, и это чрезвычайно важно, можно утверждать, что в отличие от количества ценность информации невозможно задать одним единственным числом. Ценность каждой информации имеет определенное значение лишь по отношению к некоторой данной ситуации и данной цели. Из свойства же полипотентности следует, что по отношению к разным парам "ситуация-цель" ценность любой информации может варьировать в самых широких пределах, от 0 до 1. Тогда разные информации, следовательно, различаются не единичными значениями их ценности, а распределением этих величин по множествам ситуаций и целей, а ценность некоторой данной информации может быть полностью задана только в форме такого распределения. Распределение это будет представлено множеством точек, а не непрерывной поверхностью, так как множества ситуаций и целей всегда будут оставаться открытыми. Следовательно, мы никогда не сможем иметь исчерпывающие сведения о ценности какой-либо информации, – сколь бы ни представлялась она ничтожной, всегда остается надежда, что могут существовать такие ситуации и цели, где эта ценность близка к максимальной, т. е. к 1.

Посмотрим теперь, как ценность информации может быть связана с ее количеством. Очевидно, что этот вопрос может иметь определенный ответ тоже лишь по отношению к определенной паре "ситуация-цель", причем для разных информации такие ответы могут быть разными. В общем же виде ответ на этот вопрос можно представить себе как множество точек в системе координат (С, В), которое будет иметь определенное расположение только по отношению к данной паре "ситуация-цель" или в данном "информационном поле" (рис. 1).

Будем рассуждать следующим образом. Примем, что чем сложнее преобразование (12), описывающее целенаправленное действие, т. е. чем больше "шагов" (или операций) требуется для осуществления события цели в данной ситуации, тем большее суммарное количество информации должно быть использовано для его осуществления. Отсюда следует, что хотя в общем случае С не зависит от В, для каждого конкретного информационного поля должна существовать такая область значений С, которые могут быть достигнуты только при В, равных или превышающих некоторую критическую величину. Зависимость от В максимально возможных (для данных В) значений ценности С для любого информационного поля будет описываться кривой, монотонно возрастающей от 0 до 1. Эта кривая разделит данное информационное поле на две зоны: "пустую", расположенную слева, и "заселенную", расположенную справа, где располагаются значения ценностей информации, в той или иной степени пригодных для осуществления данного целенаправленного действия (т. е. для которых 0<С<1). Очевидно, что разные значения С для информации, имеющих одно и то же количество В, будут обусловлены различиями в их семантике.

Существование зависимости, описываемой на рис. 1 кривой С(В), позволяет поставить вопрос о формах связей между степенью сложности целенаправленного действия, с одной стороны, и спецификой оператора, с другой, а также между структурными особенностями оператора и количеством кодирующей его информации. Ниже мы обсудим эти вопросы, хотя окончательное их решение вряд ли получим. Сейчас же ограничимся предположением, которое выглядит довольно правдоподобно. Допустим, что количество информации В определяет степень сложности оператора независимо от специфики его устройства, обусловливаемой семантикой. Другими словами, чем больше количество информации В, необходимой для построения данного оператора, тем сложнее он устроен.



Рис. 1. Схема, показывающая зависимость ценности информации С от ее количества В.


Эффективность информации

Введем теперь понятие "эффективность информации" , которую определим как (16)

Очевидно, что, как и в случае с ценностью, эффективность любой информации может быть полностью задана только в форме распределения на множестве информационных полей. Для каждого информационного поля должна существовать кривая А(В), имеющая один максимум и две (левую и правую) нисходящие ветви, стремящиеся к нулю (рис. 2). Такова форма кривой, под которой располагаются значения эффективности информации, "обитающих" в данном информационном поле. Эта зона "заселена" информациями, пригодными для достижения соответствующей цели в данной ситуации. Так как форма этой зоны имеет принципиальное значение для проблемы динамики информации, рассмотрим ее более внимательно.

Можно утверждать, что для всех возможных информационных полей "кривая эффективности" А(В) обязательно имеет максимум и притом только один. Это позволяет для каждого информационного поля выделить информацию, для которой А = А max . Будем называть оптимальной как такую информацию, так и соответствующее ей значение В. Это позволяет утверждать, что информация, количество которой меньше или больше B opt , в данном информационном поле оптимальной быть не может.


Рис. 2. Схема зависимости Эффективности информации А от ее количества В


Еще раз о бренности информации и её изменчивости

Как уже отмечалось, свойство бренности информации обусловливается материальностью, – а следовательно, и бренностью – ее носителей. Следовательно, бренность разных информации определяется только и исключительно свойствами тех носителей (а также их окружения), которые были использованы для их записей и хранения. Соответственно бренность одной и той же информации, но зафиксированной на разных носителях, может сильно различаться: так, носители, с которых считывается информация, могут иметь короткий период полужизни, а используемые для ее хранения – очень длинный.

Исчезновение информации, благодаря ее бренности, может быть описано "кривыми отмирания", параметры которых будут определяться свойствами носителей.

Улвем неограниченно-длительного существования иформации из-за ее бренности является только периодическая ее репликация или, точнее, требование, чтобы скорость репликации была не меньше (а точнее – больше) скорости ее деградаии.

Из последнего заключения можно сделать интересный вывод. Если принять, что скорость репликации одного и того же количества информации не зависит от ее семантики и в среднем есть величина постоянная, то условием длительного существования информации будет уменьшение бренности носителей с возрастанием количества зафиксированной в них информации. Носители вместе с компонентами информационных систем, обеспечивающими их сохранность, можно характеризовать степенью надежности. Тогда можно сформулировать такое утверждение: надежность носителей информации должна возрастать с увеличением их информационной емкости (что может происходить как монотонно, так и ступенчато). Нетрудно видеть, что это утверждение связывает количество информации с требованиями к физическим свойствам носителей, используемых для ее фиксации.

И еще одно следствие из бренности информации. Исчезать данная информация может двояко – разрушаясь и изменяясь. Во втором случае каждый акт изменчивости будет, с одной стороны, актом гибели старой информации, а с другой – актом рождения новой, чем-то отличающейся от исходной. Можно сформулировать положение, согласно которому изменение информации совершается только по одному из трех способов: замена одних букв на другие без изменения их общего числа; выпадение одной или нескольких букв; вставка одной или нескольких букв. Такие изменения могут иметь разные механизмы, в зависимости от специфики информационных систем. Вклад разных видов изменчивости и разных ее механизмов в общий процесс изменения информации также зависит от специфики информационных систем. Однако, так как специфика информационных систем сама определенным образом связана с количеством кодирующей их информации, можно утверждать, что характер и механизмы инфоационной изменчивости должны закономерно изменяться с ростом количества инормации.

Изменяться информация может, будучи в двух разных состояниях – и в "покоящемся" состоянии, и в состоянии репликации. В первом случае причиной изменчивости могут быть различные повреждения ее носителей, а во втором, помимо этого, и "ошибки репликации". Таким образом, репликация играет в жизни информации двоякую роль: и как способ продления ее существования, и как фактор, повышающий ее изменчивость, с последующим продлением существования уже новой информации.

То обстоятельство, что без репликации достаточно продолжительное существование информации невозможно, а с другой стороны, тот факт, что редупликация информации в результате редупликации содержащего ее носителя может осуществиться лишь в ходе соответствующего целенаправленного действия, – означает, что любая информация всегда и прежде всего есть информация о способе своей редупликации в том или ином пространстве режимов. Следовательно, новые видоизмененные информации будут жизнеспособными тогда и только тогда, если и когда эти изменения относятся к способам редупликации и/или к условиям, где она может осуществляться. Любые другие изменения семантики информации нежизнеспособны и рано или поздно будут элиминированы.

Учитывая вышесказанное, можно сформулировать следующее утверждение. Любая информация неизбежно обречена на гибель. Бесконечно долго может существовать лишь последовательность вновь и вновь возникающих информации с изменяющейся семантикой, определяющей или способ редупликации этой информации, или те условия, при которых такая редупликация может осуществляться.


Полезность и истинность информации

Термины "полезность" и "истинность" обычно применяют по отношению к тому виду информации, которую мы назвали логической, но в равной мере они приложимы и к поведенческой информации, и к генетической. Посмотрим, какие особенности информации эти термины отображают и как они связаны между собой.

Полезность информации предполагает, что она кому-нибудь нужна, может быть для чего-то использована. Это "что-то", конечно, есть целенаправленное действие. Полезность информации, следовательно, проявляется в возможности ее использования для достижения той или иной цели. Из свойства полипотентности следует, что для чего-нибудь полезной может оказаться любая информация. Это делает вполне оправданным добычу и хранение информации про запас; авось для чего-нибудь пригодится... Любопытство, присущее не только человеку, но и многим другим животным, – это эмоция, удовлетворение которой и обеспечивает "запасание информации впрок".

Полезность информации предполагает существование некоторого объекта, который может этой информацией воспользоваться. Очевидно, что именно по отношению к такому объекту имеет смысл понятие "цель": ведь то, что для такого объекта является целью его деятельности, для других может быть совершенно не нужным. Информация же, точнее, ее полезность, связана не с выбором цели, а с ее достижением: на выбор конечной цели или на целеполагание сама по себе информация влиять не может. Таким образом, можно сказать, что полезность информации определяется возможностью ее использовать для достижения какой-либо цели. Из полипотентности следует, что для чего-нибудь полезной может быть любая информация, хотя это далеко не всегда очевидно.


Операции над информацией

Как отмечал еще Л. Н. Серавин , информация, не будучи "ни материей, ни энергией", не подчиняется законам сохранения. Так, реализация или трансляция информации не обязательно сопровождается исчезновением ее исходного образца, а в случае гибели информация может просто исчезать, не превращаясь в другую информацию. Такое неподчинение законам сохранения ярко проявляется и при осуществлении над информацией двух операций – суммирования и деления. Это является следствием того, что информация характеризует всю систему в целом. Следует подчеркнуть, что информация поддается только этим двум операциям, ибо никаких других операций над ней производить невозможно.

Будем называть суммированием объединение двух или более записей информации в единый текст, а делением – разбивку какого-либо текста на два или более фрагмента. Очевидно, что и то, и другое предполагает, прежде всего, осуществимость соответствующих операций над носителями информации и, следовательно, идентичность природы этих носителей. Другими словами, можно утверждать, что прежде чем осуществлять суммирование нескольких информации, их следует перевести в единую систему записи. Очевидно также, что как при суммировании, так и при делении информации общая емкость тары должна оставаться постоянной, т. е. Н 1 + Н 2 + ... = (Н 1 + Н 2 + …). Аддитивность емкости тары, однако, отнюдь не означает аддитивности количества самой информации. Вопрос, следовательно, можно сформулировать так: что происходит при суммировании или делении информации с их количеством, ценностью, эффективностью и семантикой, с их полезностью и истинностью?

Очевидно, что при суммировании общее количество информации может заключаться в интервале от общей емкости информационной тары до нуля, аддитивность же самой суммированной информации может встречаться лишь как частный случай. Особый интерес представляет ситуация, когда суммарная информация оказывается большей, чем сумма информации, содержащихся в слагаемых, т. е. когда как бы возникает некая добавочная информация. На самом деле, однако, никакого возникновения информации "из ничего" не происходит, – просто информация, не будучи "ни материей, ни энергией", не подчиняется принципу аддитивности, в отличие от емкости ее носителей. Крайний вариант этой ситуации, когда в суммируемых компонентах информации вообще не содержалось, т. е. ни в одном из них ее не было, а в сумме она появляется, – этот вариант относится уже к проблеме возникновения информации и для своего рассмотрения требует, прежде всего, умения отличать информацию, содержащуюся в сообщении, от пустой последовательности букв. При суммировании возможно также исчезновение информации, хотя в суммированных фрагментах она содержалась в достаточном количестве.

Сходные ситуации могут наблюдаться и при делении какого-либо сообщения, содержащего информацию, на фрагменты: количество информации в каждом фрагменте может оказаться равным любой величине, заключенной между емкостью соответствующей информационной тары и нулем. Сумма информации, содержащихся в фрагментах, может быть большей, а может быть и меньшей, вплоть до нуля, по сравнению с количеством информации, содержащейся в исходных сообщениях.

Таким образом, и суммирование, и деление информации может приводить как к ее уменьшению, вплоть до полного исчезновения, так и к увеличению ее количества, вплоть до полного заполнения ею информационной тары. Обе эти операции, следовательно, могут рассматриваться как возможные пути возникновения дополнительной информации.

Очевидно, что к ценности и эффективности информации принцип аддитивности вообще неприложим, можно говорить лишь об изменениях форм распределений, описывающих то и другое. На этот счет можно высказать лишь одно утверждение: никаких предсказаний здесь априори делать нельзя, и каждый конкретный случай требует своего рассмотрения. Это же полностью относится к семантике, полезности и истинности информации – все эти характеристики, как и рассмотренные выше, при суммировании или делении информации могут изменяться во всем характерном для них диапазоне значений, вне какой бы то ни было зависимости одна от другой. Это еще раз подтверждает сделанное выше утверждение, что суммирование и деление, т. е. операции над информацией, – один из возможных путей возникновения новой информации. Априорная непредсказуемость характеристик новой информации, образующейся при суммировании или делении, играет важную роль в ее эволюции.


Классификация информации

Приступая к проблеме классификации информации, прежде всего, по-видимому, следует раз и навсегда отказаться от попыток выделить элементарные единицы информации: понятие дискретности или непрерывности к информации, скорее всего, вообще неприложимо. Из всего сказанного выше следует, что информацию можно классифицировать лишь по особенностям проявления тех или иных ее свойств, и в первую очередь ее фиксируемости и действенности.

По фиксируемости или, точнее, в соответствии с природой носителей мы различали уже три вида информации – генетическую, "записанную" в молекулах нуклеиновых кислот; поведенческую, фиксируемую генетическими компонентами нервных клеток, и логическую, проявляющую себя в форме человеческого знания или в форме идей, носителем которых помимо нервных клеток служит язык, т. е. устная или письменная речь. Количественно каждая из этих информации может быть ограничена только сверху: никакой носитель не может содержать больше информации, нежели позволяет его емкость. Поэтому верхней границей генетической информации служит максимально-возможное содержание в клетках ДНК, поведенческой – максимальное содержание в одном организме нервных клеток, а логической – максимально возможная суммарная емкость носителей информации тех технических систем, которые используются человеком для ее записи и хранения. Каждый из этих трех видов информации может существовать в форме независимых дискретных субъединиц: хромосомы в живой клетке, нервная система того или иного животного, отдельные экземпляры книг в библиотеке. Все это свидетельствует о возможности разделить тот или иной вид информации на отдельные фрагменты, что, однако, отнюдь не отражает дискретность самой информации.

По своей действенности информация, относящаяся к каждому из этих трех видов, может быть как завершенной, так и незавершенной. Это, конечно, также не свидетельствует ни о ее дискретности, ни о ее континуальности. Завершенной будем называть такую информацию, которой достаточно для построения какого-либо оператора. Незавершенная – это информация, на основе которой построить целостный оператор невозможно; незавершенная информация, следовательно, может кодировать лишь какой-либо фрагмент оператора или какой-либо этап его построения. Условность такой классификации, однако, связана с тем, что никакая информация не может сама построить кодируемый ею оператор, – для этого она должна быть включена в соответствующую информационную систему. Поэтому в одной информационной системе какая-либо информация может проявлять себя как завершенная, а в другой – как незавершенная, и далеко не всегда просто решить, является ли это отражением особенностей самой информации или воспринявшей ее информационной системы.

Необходимость для использования информации адекватных ей информационных систем предполагает возможность классификации и по этому признаку, т. е. по особенностям таких информационных систем. Однако этот подход к классификации информации предполагает достаточные знания о самих информационных системах, о чем речь пойдет только в следующей главе.

Наконец, остается еще одна возможность классификации информации через специфику кодируемых ею операторов. Это, пожалуй, будет наиболее объективный подход к классификации информации, так как он включает в себя и все другие выше-рассмотренные подходы. Реализован этот подход будет ниже, при рассмотрении проблем, связанных с возникновением и эволюцией информации. Забегая вперед, можно лишь сказать, что результатом такой классификации будут все те же три вида информации, которые мы выделили в самом начале этой работы.


Информация и объекты материального мира

Теперь, когда мы достаточно знаем о свойствах и особенностях информации, рассмотрим взаимоотношения между информацией и теми объектами окружающего нас мира, которые мы называем "материальными" или "физическими", т. е. телами и потоками энергии. Напомним, что между этими объектами и информацией существует та принципиальная разница, что все материальные объекты могут восприниматься нашими органами чувств (либо непосредственно, либо с помощью специальных приборов), информация же сама по себе органами чувств не воспринимается, а "считывается" лишь соответствующим блоком ее собственной информационной системы.

Нетрудно видеть, что между материальными объектами нашего мира и информацией могут быть три вида отношений, благодаря чему эти объекты можно подразделить на три класса. Класс А – это объекты, являющиеся носителями информации. Класс Б – объекты, о которых имеется или может быть создана информация. Класс В – объекты, для создания которых требовалась или требуется информация. Такая классификация условна в том смысле, что объекты из каждого класса могут, вообще говоря, относиться (и, как правило, относятся) еще к одному или двум другим классам. В то же время эта классификация в каждом данном отношении совершенно определенна. Действительно, никакая информация не может существовать, не будучи зафиксирована в каком-либо из объектов класса А. Объекты класса Б являются первичными по отношению к той информации, которая может быть о них создана, но существуют независимо от какой бы то ни было информации. Объекты класса В являются вторичными по отношению к описывающей их информации и не могут возникать без ее участия, – соответствующая же информация в своем существовании от них не зависит.

Связь объектов всех трех классов с информацией можно рассматривать в трех аспектах: в аспекте первичности (о чем уже шла речь), в аспекте количества и в аспекте качества или семантики.

Действительно, вполне правомочно поставить вопрос, как связана степень упорядоченности или сложности физических объектов с той информацией, которая может быть в них зафиксирована; может быть о них создана; требуется для создания таких объектов. Особый интерес при этом приобретает ситуация, когда к классу Б относятся объекты, принадлежащие к классу В, т. е. когда искусственно созданные объекты служат для того, чтобы воссоздать информацию, которая была использована при их построении.

Прежде всего посмотрим, как связаны с информацией объекты класса А – ее носители. Первое утверждение относительно объектов класса А можно сформулировать так: физические свойства носителя непосредственно определяют его информационную емкость (или верхнюю границу количества той информации, которую он может содержать).

Второе утверждение непосредственно следует из способа фиксации информации на носителях и состоит в том, что каждый данный носитель в пределах данного количества может содержать информацию любой семантики. Это – другая сторона свойства инвариантности информации по отношению к физическим носителям (см. глава 2. "Инвариантность информации по отношению к носителям").

Третье утверждение непосредственно относится к продолжительности жизни информации, зафиксированной на данном носителе, и рассматривалось в разделе о бренности информации (глава 2. "Бренность информации"). Смысл его состоит в том, что продолжительность жизни каждой данной информации (точнее, данного ее экземпляра) определяется только физическими особенностями носителя и внешними по отношению к нему условиями. Здесь, однако, есть один аспект, заслуживающий особого внимания: чем больше количество данной информации, тем большим по размерам (или протяженности) должен быть ее носитель. Это, по крайней мере, в некоторых случаях может влечь за собой большую уязвимость (или хрупкость) носителя и тем самым влиять на степень бренности содержащейся в нем информации. Но и в этом случае увеличение бренности информации с ростом ее количества будет определяться свойствами носителя, требующегося для ее записи, а не самой информацией как таковой.

Таким образом, физические особенности объектов класса А -носителей информации – определяют то количество информации, которое может в них содержаться, и ее бренность. Первое обстоятельство объясняет, почему для измерения количества информации можно использовать величины, характеризующие именно те свойства таких объектов, которые допускают их использование в качестве носителей информации. Мы уже видели (см. глава 2. "Фиксируемость информации. Ее носители"), что в качестве таковых могут выступать любые физические объекты –формальных ограничений здесь нет.

Связь с информацией объектов класса Б издавна анализируется той областью философии, которую называют "теорией познания". В самом общем виде эту связь можно выразить так: объекты класса Б полностью и однозначно определяют количество и семантику той информации, которая может быть о них создана. Это утверждение, однако, внутренне порочно: ведь мы знаем о разных объектах лишь то, что мы о них знаем, а это и есть созданная о них информация. Мы должны, следовательно, допустить существование некоторого множества свойств, присущих какому-либо объекту, которые нам еще не известны. В этом случае можно утверждать, что создаваемая о подобных объектах информация асимптотически стремится к этому множеству. Но мы никогда не сможем узнать, насколько она к нему приблизилась! Решение этого вопроса тесно связано с принятием посылки либо о неисчерпаемости, либо об исчерпаемости познания, т. е. посылки о существовании или несуществовании абсолютной истины. Приняв посылку о неисчерпаемости познания и, что равносильно этому, об относительности всех истин, мы придем к выводу, что о любом объекте может быть создано бесконечное количество семантически определенной информации, что бессмысленно. Более эвристичной выглядит посылка об исчерпаемости познания любого объекта и, следовательно, о существовании абсолютных истин, – посылка, хорошо отражающая системный подход к анализу объектов материального мира. Полной информацией о том или ином объекте можно называть такую информацию, располагая которой можно этот объект воссоздать в принципе неограниченное число раз. Следовательно, полная информация и есть тот предел, к которому стремится как количественно, так и семантически информация, создаваемая об объектах класса Б. Алгоритмическое представление об информации , следовательно, предполагает исчерпаемость познания любого конкретного физического (или материального) объекта.

Теперь нам остается рассмотреть связь с информацией объектов класса В – так называемых искусственных объектов, существование которых определяется кодирующей их информацией. Утверждение, согласно которому сложность строения и специфика таких объектов однозначно определяется количеством и семантикой этой информации, будет верным лишь отчасти, ибо большую роль здесь должно играть то устройство, которое реализует информацию в данный объект. Следовательно, такой объект всегда и неизбежно структурой своей отображает несколько большую по количеству и семантически более богатую информацию, нежели та, которая была использована для его создания – или, точнее, которая представляет собой алгоритм его построения. Это позволяет высказывать утверждение, что объекты класса Б определяются информацией лишь в той мере, в какой они соответствуют цели, для которой их создают, – ибо такие объекты, являющиеся искусственными, создаются всегда и только с какой либо целью. Это же приводит нас к вопросу о существенных свойствах таких объектов.

Возможность создания полной информации о естественных объектах означает принципиальную возможность их искусственного построения. Такую ситуацию по отношению к нашей Вселенной рассматривал С. Лем в книге "Сумма технологий" . Феноменологическая неразличимость искусственного и естественного миров, однако, не означает их принципиальной неразличимости: искусственное создание физических объектов предполагает предсуществование отображающей их информации, а естественно возникающие объекты далеко не всегда в этом нуждаются.

Таковы в основных чертах соотношения между информацией и объектами материального мира.

Рассматриваются вопросы определения понятия “информация”

1.1. Определение информации
1.2. Количественная мера информации (- Что такое величина или количество информации; - Формула Шеннона; - Бит и байт; - Экспертные методы оценки информации и становление новых мер информации)
1.3. Классификация информации (- По способу кодирования; - По сфере возникновения; - По способу передачи и восприятия; - По общественному назначению)
1.4. Свойства информации (- Атрибутивные свойства информации; - Прагматические свойства информации; - Динамические свойства информации)
2. Что такое информатика
2.1. Определение информатики
2.2. Основные составляющие (- Теоретическая информатика; - Симеотика; - Кибернетика; - Аналоговая и цифровая обработка информации)
2.3. Некоторые определения.

Введение

Проблема обучения информатике на начальном этапе как в старших классах среднеобразовательных школ, так и на первых курсах высшей школы вызывает многочисленные споры. До последнего времени считалось одной из основных задач общее знакомство с компьютерной техникой и умение программировать на одном из простейших языков (как правило “Школьный алгоритмический язык”, “Бейсик” или “Паскаль”). Такая ориентация наметила уклон в сторону программирования. У обучаемого появилась ассоциация слова “информатика” со словом “программирование”. В данной методическом пособии сделана попытка раскрыть понятия информатики и информации с целью использования их специалистами гуманитарных направлений. Обучаемые должны получить возможность оперировать с информацией любого вида: лингвистической, изобразительной, музыкальной. Пособие поможет им приступит к получению навыков обработки и систематизации информации, ориентации в информационных сетях.



1.1. Определение информации


Понятие “Информация” достаточно широко используется в обычной жизни современного человека, поэтому каждый имеет интуитивное представление, что это такое. Но когда наука начинает применять общеизвестные понятия, она уточняет их, приспосабливая к своим целям, ограничивает использование термина строгими рамками его применения в конкретной научной области. Так физика определила понятие силы, и физический термин силы это уже совсем не то, что имеется в виду, когда говорят: сила воли, или сила разума. В то же время наука, занимаясь изучением явления, расширяет представление человека о нем. Поэтому, например, для физика понятие силы, даже ограниченное его строгим физическим значением, гораздо более богаче и содержательнее, чем для несведущих в физике. Так понятие информации, становясь предметом изучения многих наук, в каждой из них конкретизируется и обогащается. Понятие информация является одним из основных в современной науке и поэтому не может быть строго определено через более простые понятия. Можно лишь, обращаясь к различным аспектам этого понятия, пояснять, иллюстрировать его смысл . Деятельность людей связана с переработкой и использованием материалов, энергии и информации. Соответственно развивались научные и технические дисциплины, отражающие вопросы материаловедения, энергетики и информатики. Значение информации в жизни общества стремительно растет, меняются методы работы с информацией, расширяются сферы применения новых информационных технологий. Сложность явления информации, его многоплановость, широта сферы применения и быстрое развитие отражается в постоянном появлении новых толкований понятий информатики и информации. Поэтому имеется много определений понятия информации, от наиболее общего философского - “Информация есть отражение реального мира” до узкого, практического - “Информация есть все сведения, являющееся объектом хранения, передачи и преобразования”.


Приведем для сопоставления также некоторые другие определения и характеристики:


  1. Информация (Information)- содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте .

  2. Информация - является одной из фундаментальных сущностей окружающего нас мира (акад. Поспелов).

  3. Информация - первоначально - сведения, передаваемые одними людьми другим людям устным, письменным или каким - нибудь другим способом (БСЭ).

  4. Информация - отраженное разнообразие, то есть нарушение однообразия .

  5. Информация - является одним из основных универсальных свойств материи .

Под информацией необходимо понимать не сами предметы и процессы, а их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов. Сама по себе информация может быть отнесена к области абстрактных категорий, подобных, например, математическим формулам, однако работа с ней всегда связана с использованием каких-нибудь материалов и затратами энергии. Информация хранится в наскальных рисунках древних людей в камне, в текстах книг на бумаге, в картинах на холсте, в музыкальных магнитофонных записях на магнитной ленте, в данных оперативной памяти компьютера, в наследственном коде ДНК в каждой живой клетке, в памяти человека в его мозгу и т.д. Для ее записи, хранения, обработки, распространения нужны материалы (камень, бумага, холст, магнитная лента, электронные носители данных и пр.), а также энергия, например, чтобы приводить в действие печатающие машины, создавать искусственный климат для хранения шедевров изобразительного искусства, питать электричеством электронные схемы калькулятора, поддерживать работу передатчиков на радио и телевизионных станциях. Успехи в современном развити информационных технологий в первую очередь связаны с созданием новых материалов, лежащих в основе электронных компонентов вычислительных машин и линий связи.


1.2. Количественная мера информации


Что такое величина или количество информации


Каждый предмет или явление человек пытается охарактеризовать, для сравнения с подобными, его величиной. Не всегда это можно просто и однозначно сделать. Даже величины физических предметов можно оценивать по-разному: по объему, весу, массе, количеству составляющих его элементов, стоимости. Поэтому, например, понятно, что даже на простой вопрос: ”Что больше, килограммовая гиря или детский воздушный шарик?”- можно ответить по разному. Чем явление более сложно и многопланово и чем больше характеристик у этого явления, тем труднее подобрать для него удовлетворяющее всех, кто занимается этим явлением, определение его величины. Так и количество информации можно мерить по-разному: в количествах книг, страниц, знаков, метрах кинопленки, тоннах архивных материалов, килобайтах оперативной памяти ЭВМ, а также оценивать по эмоциональному восприятию человека, по полученной пользе от обладания информацией, по необходимым затратам на обработку, систематизацию информации и т.д. Попробуйте оценить, где больше информации: в формуле Энштейна E=mc2, лежащей в основе физики водородной бомбы, в картине Айвазовского “Девятый вал” или в ежедневной телевизионной передаче “Новости”. Видимо проще всего оценить количество информации по тому, сколько необходимо места для ее хранения, выбрав какой-нибудь единый способ представления и хранения информации. С развитием ЭВМ таким единым способом стало кодирование информации с помощью цифр 1 и 0. Кодированием мы здесь называем перезапись информации из одного способа представления в другой. Количество позиций (называемых двоичными), в которых находятся только цифры 1 или 0, необходимое для прямой записи сообщения, является одним из критериев количества информации и называется объемом информации в битах. Для записи одного символа (буквы, цифры, пробела между словами, знаков препинания) в ЭВМ чаще всего используют 8 двоичных позиций, и это называется байтом. Таким образом фраза: ”белоснежка и семь гномов” состоит из 21 буквы (без кавычек) и двух пробелов между словами и будет занимать в памяти ЭВМ 23 байта или 184 бита. Возможна не прямая, а сжатая запись информации, т.е. кодирование его меньшим количеством бит. Это производится за счет специальной обработки и анализа частоты появления, расположения и количества символов в сообщении. На практике человек применяет также сжатие сообщение, исходя из его смысла. Например длинное сообщение объемом в 37 байт “тысяча девятисот девяносто шестой год” можно сжать до четырех символов “1996” Впервые, как научное понятие, информация стала применяться в библиотековедении, теории журналистики. Затем еe стала рассматривать наука об оптимальном кодировании сообщений и передаче информации по техническим каналам связи.


Формула Шеннона


Клод Элвуд Шеннон предложил в 1948 году теорию информации , которая дала вероятностно-статистическое определение понятия количества информации. Каждому сигналу в теории Шеннона приписывается вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. Шеннон предложил следующую формулу для измерения количества информации:



I = -S p i log 2 p i



где I - количество информации; p i - вероятность появления i-го сигнала;


N - количество возможных сигналов.


Формула показывает зависимость количества информации от числа событий и от вероятности появления этих событий. Информация равна нулю, если возможно только одно событие. С ростом числа событий информация увеличивается. I=1 - единица информации, называемая “бит”. Бит - основная единица измерения информации.


Бит и байт


В технике возможны два исхода, которые кодируются следующим образом: цифрой один “1” - “да”, “включено”, “ток идет” ... цифрой ноль “0” - “нет”, “выключено”, “ток не идет”. Цифры 1 и 0 являются символами простейшей знаковой системы исчисления. В каждом знаке или символе двоичной системы исчисления содержится один бит информации. Особое значение для измерения объемов символьной информации имеет специальная единица - байт. 1 байт = 8 битов, что соответствует восьми разрядам двоичного числа. Почему именно 8? Так сложилось исторически. Объем информации измеряется также в производных от байта единицах: Кбайтах, Мбайтах и Гбайтах, только приставки “К”, “М” и “Г” не означают, как в физике “кило”, “мега” и “гига”, хотя их часто так и называют. В физика “кило” означает 1000 , а в информатике “К” означает 1024, так как это число более естественно для вычислительных машин. Они в основе своей арифметики используют число 2, как человек в основе своей арифметики применяет число 10. Поэтому числа 10, 100, 100 и т.д. удобны для человека, а числа 2, 4, 8, 16 и наконец число 1024, получающееся перемножением двойки десять раз, “удобны” для ЭВМ.


1 Кбайт (КБ) = 1024 байта = 8192 бита


1 Мбайт (МБ) = 1024 Кбайта = 2 20 байта = 2 23 бита


1 Гбайт (МБ) = 1024 Мбайта = 2 20 Кбайта = 2 30 байта = 2 33 бита.


Введенное таким образом понятие количество информации не совпадает с общепринятым понятием количества информации, как важности полученных сведений, но оно с успехом используется в вычислительной технике и связи.


Экспертные методы оценки информации и становление новых мер информации


Поскольку у информации имеются разнообразные характеристики, практическое значение которых в различных приложениях информатики различно, то не может быть единой меры количества информации, удобной во всех случаях. Например, количеством меры информации может служить сложность вычисления при помощи некоторого универсального алгоритма. Следует ожидать, что дальнейшее проникновение информатики в те направления человеческой деятельности, где она еще слабо применяется, в том числе в искусство, приведет к разработке новых научных определений количества информации. Так восприятие произведения искусства, которое нравится нам, приносит ощущение наполнения новой, неизведанной ранее информацией. Не даром часто эффект, произведенный на человека великим музыкальным произведением, полотном художника, а иногда просто созерцанием природы: живописных гор, глубокого неба, - характеризуют словом “откровение”. Поэтому могут появиться характеристики количества информации, характеризующие ее эстетическое и художественное значение. Пока не созданы простые, математически выраженные определения меры количества того или иного свойства информации, для оценки его величины служат так называемые экспертные оценки, т.е. заключения специалистов в данной области. Они свои оценки дают на основании личного, часто очень субъективного опыта. Профессиональное общение между экспертами и творческое обсуждение предмета анализа приводит к выработке более или менее общепринятых критериев оценки, которые могут в конечном счете стать основой для создания формальной меры, однозначной, как международный эталон метра. Примерами становления будущих мер информации, в ее разных проявлениях, могут служить следующие экспертные оценки и другие уже применяемые показатели:



баллы,даваемые судьями соревнований за художественность исполнения, например, по фигурному катанию;
обзоры кинофильмов в прессе с проставлением балов по степени их интереса кинозрителю;

стоимость произведений живописи;

оценка работы ученого по количеству опубликованных статей;

оценка работы ученого по количеству ссылок на его работы в работах других ученых (индекс реферируемости);

индексы популярности музыкальных произведений и их исполнителей, публикуемые в прессе;

оценки студентов, выставляемые преподавателями колледжа.



Кроме измерения объема памяти в битах и байтах, в технике применяются и другие единицы измерения, характеризующие работу с информацией:



количество операций в секунду, характеризующее скорость обработки информации вычислительной машиной;

количество байт или бит в секунду, характеризующее скорость передачи информации;

количество знаков в секунду, характеризующие скорость чтения, набора за компьютером текстов или быстродействие печатающего устройства.



1.3. Классификация информации


Информацию можно условно делить на различные виды, основываясь на том или ионом ее свойстве или характеристике, например по способу кодирования, сфере возникновения, способу передачи и восприятия и общественному назначению и т.д..


По способу кодирования


По способу кодирования сигала информацию можно разделить на аналоговую и цифровую. Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число. Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Поэтому для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3)напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас в конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.


По сфере возникновения


По сфере возникновения информацию можно классифицировать следующим образом. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе - социальной. В природе, живой и неживой, информацию несут: цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей возникла другая разновидность информации - произведения искусств. Кроме эстетической информации в человеческом обществе создается семантическая информация, как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой эстетическая.


По способу передачи и восприятия


По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами называется машинно-ориентированной информацией. Количество машинно-ориентированной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.


По общественному назначению


По общественному назначению информацию можно подразделять на массовую, специальную и личную. Массовая информация подразделяется в свою очередь на общественно-политическую, обыденную и научно-популярную. Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации:

Станкостроительная,

Машиностроительная,

Инструментальная...

Научная информация подразделяется на биологическую, математическую, физическую...


1.4. Свойства информации


Информация имеет следующие свойства:

Атрибутивные;

Прагматические;

Динамические.

Атрибутивные - это те свойства, без которых информация не существует. Прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики. Динамические свойства характеризуют изменение информации во времени.


Атрибутивные свойства информации


Неотрывность информации от физического носителя и языковая природа информации


Важнейшими атрибутивными свойствами информации являются свойства неотрывности информации от физического носителя и языковая природа информации. Одно из важнейших направлений информатики как науки является изучение особенностей различных носителей и языков информации, разработка новых, более совершенных и современных. Необходимо отметить, что хотя информация и неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным языком, ни с конкретным носителем.


Дискретность


Следующим атрибутивным свойствам информации, на которое необходимо обратить внимание, является свойство дискретности. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.


Непрерывность


Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя поступательному развитию и накоплению. В этом находит свое подтверждение еще одно атрибутивное свойство информации - непрерывность.


Прагматические свойства информации


Смысла и новизна


Прагматические свойства информации проявляются в процессе использования информации. В первую очередь к данной категории свойств отнесем наличие смысла и новизны информации, которое характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.


Полезность


Полезной называется информация, уменьшающей неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации. Встречается применение термина полезности информации для описания, какое влияние на внутреннее состояние человека, его настроение, самочувствие, наконец здоровье, оказывает поступающая информация. В этом смысле полезная или положительная информация - это та, которая радостно воспринимается человеком, способствует улучшению его самочувствия, а отрицательная информация угнетающе действует на психику и самочувствие человека, может привести к ухудшению здоровья, инфаркту, например.


Ценность


Следующим прагматическим свойством информации является ее ценность. Необходимо обратить внимание, что ценность информации различна для различных потребителей и пользователей.


Кумулятивность


Свойство кумулятивности характеризует накопление и хранение информации.


Динамические свойства информации


Динамические свойства информации, как следует из самого названия, характеризуют динамику развития информации во времени.


Рост информации


Прежде всего необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.


Старение


Среди динамических свойств необходимо также отметить свойство старения информации.


2. Что такое информатика


2.1. Определение информатики


Еще не очень давно под информатикой понимали научную дисциплину, изучающей структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации - от неформальных процессов обмена научной информацией при непосредственном устном и письменном общении ученых и специалистов до формальных процессов обмена путем научной литературы . Это понимание было близко к таким, как “библиотековедение”, “книговедение”. Синонимом понятия “информатика” иногда служил термин “документация” Стремительное развитие вычислительной техники изменило понятие “информатика”, придав ему значительно более направленный на вычислительную технику смысл. Поэтому имеются до сих пор различные толкования этого термина. В Америке, как аналогичный европейскому пониманию информатики, применяется термин “Computer Science” - наука о компьютерах. Близким к понятию информатика является термин “системотехника”, для которого также часто словари дают перевод “Computer Science”. Информатика - это наука, изучающая все аспекты получения, хранения, преобразования, передачи и использования информации.


2.2. Основные составляющие


Составляющие данной науки являются: теоретическая информатика, симеотика, кибернетика. Практически информатика реализуется в программировании ивычислительной технике.


Теоретическая информатика


Теоретическая информатика является фундаментом для построения общей информатики. Данная дисциплина занимается построением моделей, построением дискретных множеств, которые описывают эти модели. Неотъемлемой частью теоретической информатики является логика. Логика - совокупность правил, которым подчиняется процесс мышления. Математическая логика изучает логические связи и отношения, лежащие в основе дедуктивного (логического) вывода.


Симеотика


Симеотика исследует знаковые системы, составляющие которых - знаки - могут иметь самую разнообразную природу, лишь бы в них можно было выделить три составляющие, связанные между собой договорными отношениями: синтаксис (или план выражения), семантику (или план значения) и прагматику (или план использования). Симеотика позволяет установить аналогии в функционировании различных систем как естественного, так и искусственного происхождения. Ее результаты используются в компьютерной лингвистике, искусственном интеллекте, психологии и других науках.


Кибернетика


Кибернетика возникла в конце 40-х годов, когда Н.Винер выдвинул идею, что правила управления живыми, неживыми и искусственными системами имеют много общих черт. Актуальность выводов Н.Винера была подкреплена появлением первых компьютеров. Кибернетика сегодня может рассматриваться как направление информатики, рассматривающее создание и использование автоматизированных систем управления разной степени сложности.


Аналоговая и цифровая обработка информации


Информатика, как наука об обработке информации, реализуется в аналоговой и цифровой обработке информации. К аналоговой обработке информации можно отнести непосредственные действия с цветом, светом, формой, линией и т.д. Смотреть на мир через розовые очки (буквально) - это аналоговая обработка визуальной информации. Возможны и аналоговые вычислительные устройства. Они широко применялись раньше в технике и автоматике. Простейшим примером такого устройства является логарифмическая линейка. Раньше в школах учили с ее помощью производить умножения и деления и она была всегда под рукой любого инженера. Сейчас ее заменили цифровые устройства - калькуляторы. Под цифровой обработкой информацией обычно понимают действия с информацией посредством цифровой вычислительной техники. В настоящее время традиционные аналоговые способы записи звуковой и телевизионной информации заменяются цифровыми способами, однако они еще не получили широкое распространение. Однако мы уже все чаще используем цифровые устройства для управления традиционными “аналоговыми” устройствами. Например, сигналы, подающиеся от переносного устройства управления телевизором или видеомагнитофоном являются цифровыми. Появившиеся в магазинах весы, выдающие на табло вес и стоимость покупки, также являются цифровыми. Естественные способы отображения и обработки информации в природе являются аналоговыми. Отпечаток следа животного является аналоговым сигналом о величине животного. Крик является аналоговым способом передать внутреннее состояние: чем громче - тем сильнее чувство. Физические процессы выполняют аналоговую обработку сигналов в органах чувств: фокусировку изображения на сетчатке глазного яблока, спектральный анализ звуков в ушной улитке. Системы аналоговой обработки сигналов более быстродействующие, чем цифровые, но выполняют узкие функции, плохо перестраиваются на выполнение новых операций. Поэтому сейчас так стремительно развились числовые ЭВМ. Они универсальны и позволяют обрабатывать не только численную, но и любую другую информацию: текстовую, графическую, звуковую. Цифровые ЭВМ способны принимать информацию от аналоговых источников, используя специальные устройства: аналогово-цифровые преобразователи. Также информация, после обработки на цифровой ЭВМ, может переводиться в аналоговую форму на специальных устройствах: цифро-аналоговых преобразователях. Поэтому современные цифровые ЭВМ могут говорить, синтезировать музыку, рисовать, управлять машиной или станком. Но может не так заметно для всех, как цифровые ЭВМ, но развиваются и аналоговые системы обработки информации. А некоторые устройства аналоговой обработки информации до сих пор не нашли и видимо в ближайшем будущем не найдут себе достойной цифровой замены. Таким устройством, например, является объектив фотоаппарата. Вероятно, что будущее техники за так называемыми аналогово-цифровыми устройствами, использующими преимущества тех и других. Повидимому органы чувств, нервная система и мышление также построены природой как на аналоговой, так и цифровой основе. При проектировании человеко-машинных сис тем важно учитывать характеристики человека по восприятию того или иного вида информации. При чтении текстов, например, человек воспринимает 16 бит в 1 сек, одновременно удерживая 160 бит . Удобный дизайн в кабине самолета, на пульте управления сложной системой, значительно облегчает работу человека, повышает глубину его информированности о текущем состоянии управляемого объекта, влияет на быстроту и эффективность принимаемых решений.


2.3.Некоторые определения.


Наука - социальная сфера создания и использования информации как знания объективного мира человека.


Искусство - социальная деятельность по созданию и использованию источников информации, влияющих в первую очередь на чувства, во вторую на сознание.


Творчество - производство человеком новой информации. Педагогика - организация информационного процесса, связанного с максимальным усвоением информации.


Обучение - передача информации с целью приобретения знания и умения.

Литература

1. Информатика. Энциклопедический словарь для начинающих. под ред. Д.А.Поспелова - М. Педагогика-Пресс, 1994


2. Я.Л.Шрайберг, М.В.Гончаров - Справочное руководство по основам информатики и вычислительной техники - М.Финансы и статистика, 1995


3. Информатика и культура. Сборник научных трудов. - Новосибирск, Наука, Сибирское отделение, 1990


4. Д.И.Блюменау - Информация и информационный сервис - Ленинград, Наука, 1989


5. Информационная технология: Вопросы развития и применения. - Киев.:Наук.думка,1988


6. Концепция информатизации образования // Информатика и образование. - 1990 - N1


7. Терминологический словарь по основам информатики и вычислительной техники/ А.П.Ершов и др.; под ред. А.П.Ершова, Н.М.Шанского.- М.:Просвещение, 1991.-159 с.


8. Заварыкин В.М. и др. Основы информатики и вычислительной техники: Учеб. пособие для студентов пед. ин-тов по физ.-мат. спец.- М.: Просвещение, 1989.-207 с.


9. Энциклопедия кибернетики. - Главная редакция украинской советской энциклопедии. Киев, 1974.


ГОНЧАРЕНКО ЕЛЕНА АЛЕКСАНДРОВНА
ЗНАМЕНСКИЙ ВАСИЛИЙ СЕРАФИМОВИЧ


МНО КБР
НАЛЬЧИКСКИЙ КОЛЛЕДЖ ДИЗАЙНА
Нальчик-1996


Большинство ученых в наши дни отказываются от попыток дать строгое определение информации и считают, что информацию следует рассматривать как первичное, неопределимое понятие подобно множества в математике. Некоторые авторы учебников предлагают следующие определения информации:

Информация - это знания или сведения о ком-либо или о чем-либо.

Информация - это сведения, которые можно собирать, хранить, передавать, обрабатывать, использовать.

Информатика - наука об информации

Это наука о структуре и свойствах информации, способах сбора, обработки и передачи информации

Информатика, изучает технологию сбора, хранения и переработки информации, а компьютер основной инструмент в этой технологии.

Термин информация происходит от латинского слова informatio, что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

1. В быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

2. В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

Сигнал - способ передачи информации. Это физический процесс, имеющий информационное значение. Он может быть непрерывным или дискретным.
Сигнал называется дискретным, если он может принимать лишь конечное число значений в конечном числе моментов времени.

Аналоговый сигнал - сигнал, непрерывно изменяющийся по амплитуде и во времени.
Сигналы, несущие текстовую, символическую информацию, дискретны .
Аналоговые сигналы используют в телефонной связи, радиовещании, телевидении.

Говорить об информации вообще, а не применительно к какому-то ее конкретному виду беспредметно.

Классифицировать ее можно:

По способам восприятия (визуальная, тактильная и т.д.);

По форме представления (текстовая, числовая, графическая и т. д.);

По общественному значению (массовая, специальная, личная).

Данные — представление фактов и идей в формализованном виде, пригодном для передачи и обработки в некотором информационном процессе.

Изначально — данные величины , то есть величины, заданные заранее, вместе с условием задачи. Противоположность — переменные величины .

В информатике данные — это результат фиксации, отображения информации на каком-либо материальном носителе, то есть зарегистрированное на носителе представление сведений независимо от того, дошли ли эти сведения до какого-нибудь приёмника и интересуют ли они его.

Традиционно применяют два способа организации данных:

- текстовые данные (в файловой системе: текстовый файл, в программировании: строковый тип данных) — последовательность символов алфавита, представленная в виде кодировки.

Двоичные данные — последовательность байтов. «Двоичная» организация не являются способом организации данных как таковым, а лишь термином, объединяющим форматы(формы организации), отличные от текста.

Могут включать в себя разнообразные элементы, такие как машинный (или иной исполняемый) код, числовые данные, условные коды,битовые карты, местоположение других данных, фрагменты текста (см. выше), сжатые и случайные данные.

mob_info