Вход

Философия информации и сложных систем

Реферат* по философии
Дата создания: 1999
Язык реферата: Русский
Word, doc, 422 кб
Реферат можно скачать бесплатно
Скачать
Данная работа не подходит - план Б:
Создаете заказ
Выбираете исполнителя
Готовый результат
Исполнители предлагают свои условия
Автор работает
Заказать
Не подходит данная работа?
Вы можете заказать написание любой учебной работы на любую тему.
Заказать новую работу
* Данная работа не является научным трудом, не является выпускной квалификационной работой и представляет собой результат обработки, структурирования и форматирования собранной информации, предназначенной для использования в качестве источника материала при самостоятельной подготовки учебных работ.
Очень похожие работы
Найти ещё больше
Содержание
 
Введение
К общему определению понятия информации
Количественные теории информации. Мера Шеннона
Качественный аспект информации
Информация как функция разнообразия
Отражение и информация
Информация и сложные системы
К определению понятия системы
Информация в кибернетических системах
Информация в теоретикоигровых моделях
Связь информации с законами и категориями диалектики
Законы диалектики и информация
Информация и развитие
Информация, законы природы и причинность
Пространствовремя и информация
Информация и общество
Особенности социальной информации
Научнотехническая информация и познание
Общество и информатизация
Заключение
Литература
  
Введение
 
Теория информации — одна из наиболее бурно развивающихся отраслей современного научного знания. За полвека с момента возникновения она насчитывает почти столько же работ, сколько и теория относительности — один из фундаментальных разделов современной физики. В настоящее время формула количества информации К. Шеннона, наверное, известна не менее, чем формула взаимосвязи массы и энергии А. Эйнштейна. К тому же если теория относительности применяется только физиками, то теория информации проникает во многие науки о живой и неживой природе, обществе и познании, ее используют и физики, и биологи, и экономисты, и ученые многих других специальностей.
Теория информации нужна не только науке, но и производству. Современное производство стало очень сложным; в связи с этим на первый план в нем выдвигаются вопросы организации и управления, основанные на процессах передачи и преобразования информации. Без изучения и широкого использования информации было бы чрезвычайно затруднено дальнейшее преобразование вещества и энергии в процессе производства. Кроме того, совсем недавно появился и в настоящее время бурно развивается принципиально новый сектор производства — производство не вещественноэнергетических, а чисто информационных товаров.
Естественно, что интенсивное развитие теории информации и ее приложений ставит ряд вопросов философского характера. И прежде всего возникает проблема выявления содержания самого понятия «информация». При анализе этого понятия мы вынуждены вовлекать в рассмотрение материальный субстрат, на котором развертываются процессы движения информации — информационные системы. Поэтому в обзор философской теории информации входит как неотъемлемая часть изложение основных положений философской теории систем.
Структура изложения такова. Сначала описан ряд частных теорий информации, обладающих весьма ограниченной областью применения, но дающих хорошие результаты для определенных классов явлений. Каждая из этих теорий сама по себе связана с теми или иными философскими обобщениями и потому их рассмотрение имеет непосредственное отношение к теме реферата. Далее раскрывается связь понятия информации с философскими категориями различия и отражения. Определение информации, получаемое на этом пути, принимается в качестве наиболее общего и используется всюду в оставшейся части.
Второй раздел посвящен системам и информационным процессам в них. Дано общее определение системы и уточнены отдельные аспекты этого понятия. Отдельно рассмотрен класс систем, имеющий особую важность, — сложные самоуправляемые (кибернетические) системы.
В третьем разделе описана связь понятия информации с законами и категориями диалектики. Особое внимание уделено категориям причинности, пространства, времени и развития.
Наиболее сложным из известных систем являются человеческое общество. Чрезвычайно сложны и информационные процессы, протекающие в нем. В последнем разделе рассматривается социальная информация вообще и такой особый вид ее, как научная информация. Наконец, сказано о некоторых проблемах, специфических для современного общества и связанных с бурным развитием устройств обработки информации.
 
К общему определению понятия информации
Количественные теории информации. Мера Шеннона
 
До эпохи интенсивного развития систем связи и до возникновения кибернетики понятие информации считалось интуитивно понятным и не нуждающимся в точных определениях, а тем более в философском анализе. История учений об информации начиналась с разработки ее количественного аспекта, что диктовалось потребностями радио и телефонной связи. При этом любая количественная теория неизбежно была связана с попыткой дать то или иное общее определение. Каждой формуле количества информации соответствовал свой взгляд на ее сущность.
Наиболее разработанной является статистическая теория информации [А11], [Б11], возникшая на базе теоретиковероятностных подходов и связанная с определением информации как снятой неопределенности.
В задачах теории связи рассматривается система, состоящая из источника информации, приемника и расположенного между ними канала связи. Существенно, что для получателя единственным способом получения информации является считывание сообщения из канала связи. Иными словами, приемная сторона не может достоверно предугадать следующее сообщение. Так в рассмотрение вводится понятие неопределенности, играющее в теории фундаментальную роль. До приема сообщения у приемника существует неопределенность (незнание) относительно того, какое сообщение придет следующим. Акт приема сообщения снимает данную неопределенность. Если известно, что в канале всязи отсутствуют помехи, то неопределенность снимается полностью. В противном случае неопределенность устраняется лишь частично, так как у приемной стороны остается еще неопределенность (сомнение) относительно того, не является ли принятое сообщение результатом искажения.
Таким образом, неопределенность, снимаемая в результате приема сообщения, отождествляется с информацией. Такое определение весьма близко к житейскому пониманию: информацией мы, как правило, склонны считать то, что для нас еще не известно, ново, то, что уменьшает наше незнание. Например, пусть нас интересует вопрос, прибыл ли поезд. При этом у нас нет никаких оснований для предположения, что он действительно прибыл, так же как и для противоположного предположения. Равновероятность этих двух возможностей означает максимальную неопределенность выбора. Позвонив на вокзал по телефону, и получив ответ на интересующий нас вопрос, мы тем самым устраним неопределенность до нуля. Заметим, что как положительный, так и отрицательный ответ (ввиду их равновероятности) устраняют неопределенность в равной мере. Устранение неопределенности выбора из двух равновероятных возможностей соответствует одному биту информации.
Рассмотрим теперь другую ситуацию, аналогичную первой во всем, кроме того, что мы заранее на 90% уверены в том, что поезд еще не пришел, и лишь 10% оставляем на долю сомнения. Получив по телефону ответ «поезд не пришел», мы не узнаем почти ничего нового: мы и так были заранее подготовлены к такому исходу. Поэтому есть основание считать, что получено мене 1 бита информации. Напротив, получив неожиданный ответ, то есть ответ с большей неопределенностью, мы получаем более 1 бита информации.
Количественным выражением неформального понятия «неопределенность» служит известная и с успехом применяемая мера Шеннона. Пусть всего возможны   типов сообщений, причем для каждого типа сообщения   априори известна его вероятность . Неопределенность отдельного типа сообщения выражается формулой . Эта формула полностью удовлетворяет рассмотренному выше требованию, так как для более вероятных событий, , она дает малую неопределенность   и, наоборот, для маловероятных событий получаем возрастающую неопределенность . В частности, событие, которое с полной достоверностью может быть предсказано заранее не несет никакой информации.
 Формула Шеннона совпадает по виду с формулой Больцмана для статистического определения энтропии, взятой с обратным знаком [А2]. В термодинамике энтропия служит мерой хаотичности, беспорядка в системе. Таким образом, информация, будучи отрицательной энтропией (негэнтропией) может рассматриваться как вклад в упорядочение системы.
Развитие статистической теории информации привело к следующим результатам. Вопервых, стало возможным строгое количественное исследование информационных процессов. Вовторых, был расширен объем понятия информации, так как статистическая теория полностью отвлекается от двух высших семиотических аспектов информации: семантичиского (смыслового) и прагматического (ценностного). С позиций этой теории информацию несет не только человеческая речь, но и любые объекты и процессы, которые подчиняются статистическим закономерностям.
Далее, статистический подход позволил выявить фундаментальную связь информационных процессов и термодинамики. Знак «минус» в формуле Шеннона однозначно указывает на то, что информационные процессы в известном смысле противоположны естественным термодинамическим процессам, ведущим, как известно, к деградации. Статистическая теория прямо связывает информацию с процессом превращения возможности в действительность, случайности в необходимость, что уже дает основание для философского анализа. Наконец, в рамках статистического подхода было получено первое определение информации, удовлетворительное с философской точки зрения: информация есть устраненная неопределеность.
Вместе с тем, статистическая теория обладает и существенными недостатками, которые являются продолжением ее достоинств. Вопервых, информация связывается лишь со случайными процессами, подчиняющимися вероятностным законам. Статистическая теория утверждает, что информационные процессы не происходят в однозначно детерминиованных системах. В частности, компьютер, выполняющий определенную программу и функционирующий по законам необходимости, оказывается, согласно статистической теории, неинформационной системой, а игральная кость — информационной. Вовторых, отвлечение от осмысленности и полезности информации, вполне уместное при анализе систем связи, уже не может нас удовлетворить, если речь идет о живых системах, о человеке и обществе. Эти и другие неадекватности заставляют искать иные, более общие определения информации. Это, конечно, означает не отказ от статистической теории, а лишь четкое определение области ее применимости.
Характерной особенностью статистической теории является то, что в качестве математического средства формализации понятия неопределенности была выбрана вероятность. Однако понятие неопределенности в общем случае оказывается шире понятия вероятности, а статистическая теория не может правильно описывать те процессы снятия неопределенности, которые к вероятности не сводятся. Действительно, пусть имеется множество элементов, из которых осуществляется выбор. Выбор может происходить и по заранее заданному закону (детерминированному алгоритму), неизвестному познающему субъекту. В этом случае у субъекта существует неопределенность относительно данного закона, однако эта неопределенность имеет невероятностную природу. Даже если к такому случаю удастся применить статистическую теорию, это будет искусственный прием, искажающий внутреннюю логику и сущность познаваемого процесса. Это есть ни что иное, как втискивание реальной ситуации в прокрустово ложе готовой теории вместо того, чтобы разработать теорию, адекватную своему предмету.
Невероятностные теории, относящиеся к качественному аспекту информации, будут рассмотрены ниже. Здесь же упомянем одну из наиболее известных невероятностных количественных теорий — алгоритмический подход А. Н. Колмогорова. В основе подхода лежит тот факт, что количество информации, заключенной в объекте   нас чаще всего интересует не само по себе (абсолютное количество информации), а относительно определенного объекта , то есть взаимное, относительное количество информации. Количество информации по А. Н. Колмогорову — это сложность объекта   относительно объекта , данного в качестве строительного материала. А именно, количество информации измеряется как наименьшая длина алгоритма, строящего объект   из объекта . Алгоритмический подход связан с конструктивным направлением в математике.
 
Качественный аспект информации
 
Теории, имеющие дело с «чистым» количеством информации, по необходимости ограничиваются синтаксическим аспектом — низшим в тройке семиотических характеристик. Однако информация имеет еще и качественную сторону (вернее, стороны), некоторые из которых успешно формализуются и изучаются средставми математики. В частности, для некоторых качественных характеристик информации получены количественные выражения.
Наиболее простая теория, имеющая отношение к качеству информации — это теория кодирования. Данное направление развивалось в тесной связи со статистической теорией, но отнюдь не сводится к ней. Для теории кодирования характерно использование не вероятностных, а алгебраических методов.
Понятие кодирования охватывает такие процессы, как перевод предложения с одного естественного языка на другой, представление текста в памяти компьютера, где каждой букве ставится в соответствие числовое обозначение, переход от «человеческого» алфавита к азбуке Морзе и обратно и т. д. Система правил, позволяющая переводить сообщение из одной формы представления в другую, называется кодом.
В процессе кодирования форма представления информации, вид сообщения, количество символов, используемых для его записи, и другие характеристики могут существенно меняться. Однако, и это главное, содержание сообщения остается неизменным. Следовательно, от перекодирования не изменяется неопределенность, устраняемая сообщением у субъекта. Таким образом, кодирование изменяет качественную природу носителя информации и количественные характеристики формы представления сообщения, но не изменяет количество и качество информационного содержания сообщения. Как видно, теория кодирования, хотя и имеет определенное отношение к качественному аспекту информации, все же не выходит за пределы синтаксического уровня.
В человеческом общении особую роль играет смысл информации, то есть семантический аспект. Одна из известных семантических теорий — теория Р. Карнапа и Й. БарХиллела [А11], использующая аппарат символической логики. По существу, каждому предложению, выражающему законченную мысль, ставится в соответствие его вероятность (мера истинности). Когда из более простых суждений образуются более сложные, вероятность последнего вычисляется по определенным правилам исходя из вероятностей исходных суждений. Таким образом, теория Карнапа — БарХиллела основывается на вероятностной логике.
Допустим, имеется начальное достоверное знание о мире , и пусть   — гипотеза. Методы вероятностной логики позволяют вычислить степень новизны гипотезы по сравнению с начальным знанием — . Степень новизны тем больше, чем меньше данная гипотеза следует из установленных фактов. Очевидно, если сбъекту будет сообщена новая информация, никак не следующая из имеющегося у него запаса знаний, то субъект получит большое количество информации. Наоборот, если то, что субъекту сообщено, и без того следует из известных фактов, то никакой новой информации субъект не получает. На основании этого в теории Карнапа — БарХиллела степень новизны сообщения   и считается количеством семантической информации.
С точки зрения данной семантической теории высказывание «На Марсе есть жизнь» содержит немалое количество информации, ибо эта гипотеза не подтверждена имеющимися экспериментальными данными. В то же время высказывание «На Земле есть жизнь» оказывается лишенным семантической информации, ибо это достоверное знание. Хотя положение, лежащее в основе теории, согласуется со здравым смыслом, последовательное проведение такой точки зрения, очевидно, должно приводить к неадекватностям.
Другой подход к формализации семантического аспекта был предложен Ю. А. Шрейдером. В его модели информацией обладают не только гипотезы, но вообще любые сведения, которые изменяют запас знаний (тезаурус) приемника информации. В общем случае семантический аспект выражает отношение между информацией как компонентом отражения и отражаемым объектом, который играет роль передатчика информации. В модели Ю. А. Шрейдера количество семантической информации, содержащееся, например, в какомлибо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Это изменение может быть определенным способом измерено количественно. При чтении школьного учебника тезаурус школьника существенно расширяется, — ученик получает новую информацию. Тезаурус же академика при чтении того же учебника не изменяется, он не получает семантической информации, не изменяет запаса знаний.
В любом случае учет семантического аспекта требует рассмотрения отношения двух сторон: информации и воспринимающего субъекта, так как одна и та же информация для двух разных людей может обладать различным смыслом. Синтаксический аспект информации требует рассмотрения лишь одной стороны, то есть самой информации. Рассмотрим теперь еще одно отношение, трехстороннее — между информацией, субъектом и целью, которую ставит перед собой субъект. Это отношение соответствует высшему, прагматическому аспекту.
Одним из наиболее важных прагматических свойств информации является ценность. Ценность информации вначале была определена с помощью теоретиковероятностного подхода (А. А. Харкевич). А именно, если до получения сообщения вероятность достижения цели субъектом была , а после его получения стала , то ценность полученной информации (или прагматическое количество информации) определяется через приращение этой вероятности. Существуют и другие подходы к определению ценности информации, среди которых особое место занимают теоретикоигровые модели.
Важно отметить, что ценность одного и того же сообщения существенно зависит как от субъекта, так и от поставленной цели. Вне связи с целью прагматический аспект информации вообще теряет смысл. Понятие цели обычно характеризует человеческую деятельность, а также может быть применено к животному миру и кибернетичнским устройствам. В неживой природе нет никаких целей, а значит и отсутствует такое свойство информации, как ее ценность.
Учет прагматического аспекта приводит к выводу, что иногда следует рассматривать отрицательные количества информации. Пусть, например, ставится цель: запуск аэростата. Для этого необходимо знать направление ветра. Допустим, нам сообщили, что дует северозападный ветер. Безусловно, это сообщение уменьшает нашу неопределенность и приближает к достижению цели. Допустим теперь, что сразу же после первого собщения приходит опровержение: дует юговосточный ветер. Если применить меру Шеннона, то оба сообщения несут одинаковое положительное количество информации. Но с точки зрения прагматической второе сообщение возвращает нас к состоянию первоначальной неопределенности, так как мы уже не знаем, какому из сообщений верить. Наконец, чьято намеренная дезинформация (которая по Шеннону также доолжна рассматриваться как положительное количество информации) уменьшает наши шансы на достижение цели и потому имеет отрицательную ценность.
Из изложеного можно сделать вывод, что развитие учений об информации происходит одновременно во многих направлениях. Каждое направление фиксирует определенную сторону понятия информации и имеет свою область применимости. При выходе за границы этой области эффективность применения того или иного подхода резко падает и может даже привести к ошибочным выводам. Наилучшего, универсального определения среди перечисленных (и многих других) формальных математических определений информации нет.
Примечательно, что при анализе всех трех семиотических аспектов информации: синтаксического, семантического и прагматического, первыми разрабатывались вероятностные теории, а затем происходил постепенный тход от вероятностных моделей. Тем самым само понятие информации освобождалось от слишком узких вероятностных представлений.
Количественные меры информации выступают как наиболее простой уровень научного знания об информации. После овладения количественными методами неизбежен подъем на следующую ступень — постижение глубокой сущности информации. Из приведенного далеко не полного перечня несводимых друг к другу частных теорий информации обнаруживается многогранность и сложность понятия информации. В связи с этим возникает вопрос о наиболее общем определении информации, не специальнонаучном, а философском, которое бы не противоречило ни одной из существующих частных теорий и содержало бы их в себе в виде частных случаев.
 
Информация как функция разнообразия
 
В основе более широкого подхода к определению понятия информации лежит представление о тесной связи информации и разнообразия. Данная точка зрения является в настоящее время наиболее широко распространенной и аргументированной [А6]. Согласно этой концепци природа информации заключается в разнообразии, а количество информации выражает количество разнообразия.
Концепция разнообразия хорошо согласуется со всеми упоминавшимися ранее теориями информации. Так, в статистической теории рассматривается разнообразие сообщений, а устранение неопределенности можно представить как ограничение разнообразия возможностей до одной реализовавшейся действительности. Рассмотрим пример. Пусть дано множество, состоящее из 10 различных элементов, то есть множество, обладающее большим внутренним разнообразием. Выбор одного, заранее не указанного, элемента, говоря языком статистической теории, устраняет неопределенность . Если же совокупность однообразна, то есть состоит из совершенно одинаковых элементов, принадлежащих к одному типу, то случайный выбор элемента никакую неопределенность не устраняет: мы и так заранее знаем, к какому типу будет принадлежать выбранный элемент ( ). Следовательно, чем больше разнообразие элементов, теи больше информации заключено в акте выбора одного из них.
В комбинаторной теории рассматривается разнобразие элементов и разнообразие связей между ними. Алгоритмическое количество информации определяет разнообразие операций алгоритма, необходимых для воссоздания объекта. Очень ярко выражена идея разнообразия в теории семантической информации Ю. А. Шрейдера, где количество семантической информации определяется через степень изменения тезауруса, то есть через изменение разнообразия запаса знаний субъекта. Концепция разнобразия не противоречит и общежитейскому пониманию информации. Ведь мы обычно понимаем под информацией нечто новое, отличное от уже известного.
Таким образом, каждая частная теория информации изучает некоторый специальный вид разнообразия. То, что для одной теори выступает как разнообразие (информация), для другой может быть однообразием, тождеством (отсутствием информации). Так, одно и то же сообщение (однообразие на уровне синтаксиса) может иметь разный смысл для различных субъектов (разнообразие на уровне семантики). Наоборот, два сообщения, совершенно различных с синтаксической точки зрения, могут нести одинаковый смысл. Поэтому синтаксические теории информации имеют дело с иным типом разнообразия, чем семантические.
Методологическая эффективность и перспективность концепции разнообразия, согласно [А11], состоит в следующем. Вопервых, концепции разнообразия дает возможность прийти к тем же результатам в построении той или иной теории, которые достигались исходя из какихлибо других соображений. Она позволяет интерпретировать на единой основе различные теории и концепции информации, чего лишены другие, более узкие трактовки информации. Вовторых, концепция разнообразия открывает возможность развития теорий информации в соответствии со следующим принципом: каждому виду разнообразия должен соответствовать свой вид информации и наоборот. Втретьих, на ее основе можно проследить связь информации с законами и рядом категорий диалектики.
Определяя информацию как меру разнообразия, мы имеем в виду информацию, взятую в определенный момент времени, в одномоментном срезе. Соответственно, все информационные процессы должны рассматриваться как трансформации, количественные и качественные изменения разнообразия, передача разнообразия во времени и пространстве.
Статистическая теория вводит в рассмотрение процесс ограничения неопределенности, акт выбора. Иными словами, статистическая теория — это не столько теория информации, сколько теория элементарных форм движения информации. Сама же информация определяется на основе процесса своего движения. То, что концепция разнообразия свободна от акта выбора, является ее существенным достоинством, так как жесткая привязка понятия информации к процессам ее движения сужает область применимости теории.
Подход к определению информации, близкий к концепции разнообразия, имеется и в работах академика В. М. Глушкова. Он характеризует информацию как «меру неоднородности в распределении энергии (или вещества) в пространстве и во времени». «Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несет с собой какуюто информацию». (Цитируется по [А11].)
Данное определение информации имеет одно важное следствие. Разнообразие (различие) объективно свойственно всей материи. Любые два объекта хоть чемто различаются (иначе это не были бы разные объекты), и сам по себе каждый объект содержит внутренние различия. Следовательно, определяя информацию на основе понятия разнообразия, мы тем самым признаем, что информация является атрибутом материи, носит всеобщих характер, и что информационные процессы свойственны в том числе и неживой природе.
 
Отражение и информация
 
Выше понятие информации было определено на основе понятия разнообразия, и, следовательно, на основе категории различия. В настоящем разделе будет показана связь понятия информации и категории отражения ([А6], [А8], [А10], [А11], [Б9], [Б16], [Б17], [Б18]). В частности, определение «информация = разнообразие» оказывается неполным, и для исчерпывающего определения необходимо привлечь отражение.
Рассмотрение содержания категории отражения начнем с понятия взаимодействия и причинности. Воздействие одного тела на другое сопряжено с отражением. При этом объект, являющийся причиной, называется отражаемым, а объектследствие — отражающим. Отражение является стороной причинной связи. Из всего содержания понятия взаимодействия извлекается лишь определенный аспект. Под отражением в широком смысле понимается процесс и результат воздействия одной материальной системы на другую, который представляет собой воспроизведение в иной форме особенностей (черт, сторон, структуры) одной системы в особенностях (чертах, структуре) другой системы. В процессе взаимодействия в общем случае возможны и другие изменения, которые не соответствуют особенностям отражаемой системы. Но от этих последних изменений при определении отражения отвлекаются.
Если попытаться раскрыть, в чем именно заключается соответствие между отражающим и отражаемым, то можно прийти к такому определению. Отражение — это воздействие одной материальной системы на другую, ведущее к установлению определенного (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой).
Как следует из приведенного определения, отражение выступает как диалектическая связь тождества и различия двух объектов, причем тождество объектов выражается через различие и благодаря ему. Такое определение дает возможность выразить информационный аспект отражения. А именно, информация есть ни что иное, как содержание отражения. Содержанием отражения являются те изменения, различия в отражающей системе, которые соответствуют внутренним различиям отражаемой системы.
Таким образом, информация с позиций теории отражения может быть представлена как отраженное разнообразие, то разнообразие, которое один объект содержит о другом объекте. Симметричным образом информацию можно определить и как разнообразностный аспект (сторону, компонент) отражения.
Покажем, что все виды движения информации в информационных системах являются, по существу, процессами отражения. Всего есть четыре формы движения информации: восприятие, передача, хранение и переработка, причем восприятие и передача дуальны друг к другу и всегда образуют пару.
Рассмотрим сначала пару восприятие — передача. Пусть объект А передает информацию, а объект Б ее принимает. Когда говорят о восприятии информации, неявно предполагается, что воспринятая информация будет некоторое время храниться в объектеприемнике. Иными словами, для того, чтобы информация действительно была воспринята объектом Б, в нем должны произойти какието относительно устойчивые изменения, в которых и будет закодирована принятая информация. Далее, поскольку информация исходит от объекта А, она есть ни что иное как часть внутреннего разнообразия этого объекта, оторванная от самого объекта и перенесенная на материальный носитель другой природы. В результате приходим к выводу, что изменения внутреннего разнообразия объекта Б соответствуют какойто части разнобразия объекта А. Следовательно, в данном случае имеет место отражение объекта А объектом Б. Объект, передающий информацию, выступает в роли отражаемого, а принимающий — в роли отражающего.
Хранение информации — это ее передача не в пространстве, а во времени. Отражаемым объектом является запоминающее устройство в начальный момент времени, а отражающим — то же устройство в последующие моменты. Переработка информации — это также ее передача (отражение) во времени, однако между процессами хранения и переработки информации как отражательными процессами имеется существенная разница. Хранение предполагает полное (на уровне синтаксиса) совпадение образа и оригинала. При переработке же неизбежно изменяется синтаксическая форма информации, а также могут подвергаться изменениям ее смысл и ценность. Таким образом, между информациейоригиналом и информациейобразом имеет место более высокий тип тождества, чем в случае хранения, — генетическое тождество.
В большинстве случаев в реальном процессе отражения передача информации от отражающего объекта к отражаемому происходит в форме сигнала. Следовательно, для того чтобы осуществился процесс отражения, кроме отражаемого и отражающего объектов, необходим третий компонент — среда, передающая информацию, закодированную в форме сигнала. В теории связи под сигналом понимают любой процесс или объект, при помощи которого можно передавать информацию, кодировать различия. Те свойства сигналов, которые не изменяются (или от изменения которых отвлекаются), — не несут информации, для воспринимающего объекта они тождественны, лишены внутренних различий. Те же свойства сигналов, которые могут передавать различия, изменяются соответственно изменению (различиям) передающего (отражаемого) объекта.
Сигналы и соответствующие им процессы отражения можно разделить на четыре типа: сигналы в неживой, живой природе, обществе и технике. В неживой природе сигнальный характер взаимодействий не используется телами, информационный процесс не выделяется из вещественноэнергетического. Переработка информации связана с соотнесением информации, воспринимаемых различий с объектами, которые передают эти различия в форме сигналов. Такого соотнесения нет в неживой природе, отражение там носит пассивный характер.
В живой природе отражение существует на двух уровнях: допсихическом и психическом. Этим уровням соответствуют две различные формы передачи информации: посредством сигналовкодов и сигналовобразов. Допсихическому отражению соответствуют сигналыкоды. Кодирование возникло в процессе эволюции как выделение биологическими системами именно информационных (в отличие от вещественноэнергетических) характеристик материи. Примерами кодов могут быть выделяемые животными пахучие вещества, которыми они метят свою территорию. Высокоразвитые животные используют наряду с кодами более совершенные сигналы — психические образы. Примером может быть отпугивающая поза кошки (выгнутая спина, распушенный хвост, прижатые уши), сопровождаемая шипением или рычанием.
Отличительная особенность трех высших классов отражения состоит в том, что здесь информационное содержание как бы отделяется от своего материального носителя и обретает относительно самостоятельное бытие. Так, работа современных компьютеров сводится к передаче последовательностей электрических импульсов, подчиняющейся определенным правилам. Однако мы все же определяем компьютер не как устройство для передачи электрических импульсов, а как устройство для обработки информации. При этом для нас несущественно, каков материальный носитель информации в компьютере: электричество, свет (оптические компьютеры), сжатый воздух (пневматические вычислительные машины). Более того, в высокоорганизованных системах, как правило, имеются сложные цепи отражения, состоящие из качественно разнородных объектов, отражающих друг друга. Информация (разнообразие) меняет свою форму, проходит через несколько промежуточных носителей, возможно, совершенно различной природы, и, тем не менее, остается собой, то есть сохраняет свое содержание.
В процессе передачи отражения по цепи отражающих друг друга объектов теряется ряд различных особенностей первоначального отражаемого прообраза, утрачивается часть его содержания, а остается лишь то, что можно объективировать, передать. Таким образом, информация выступает как сторона, компонент отражения, его инвариант, который может перекодироваться, передаваться, опредмечиваться и т. д. Категория отражения оказывается шире понятия информации, так как информация — это лишь один из компонентов отражения. Отражение содержит ряд неинформационных аспектов: модальность, тип сходства образа и оригинала и др. Анализ отражательных процессов приводит к выводу о том, что они зависят от своих материальных носителей по целому ряду характеристик. Между тем, информационное содержание отражения инвариантно по отношению к носителю: все равно, передается информация по проводам, на бумаге или в устной речи.
Рассмотрим с этих позиций процесс передачи информации от человека к человеку. Вначале человек А, отражая некоторый объект М всеми органами чувств, формирует богатый и целостный образ объекта. Этот образ наверняка содержит черты, не сводящиеся к «чистой» информации. Предположим, человек А рассказывает об объекте М человеку Б. При этом происходит кодирование, опредмечивание образа, выделение из него информационного содержания (инварианта), что неизбежно связано с упрощением и обеднением. Получатель Б не только пассивно запоминает рассказ А, а формирует на его основе свой, новый образ, вплетая информацию в среду своих ассоциаций, переживаний и т. д. В результате у двух человек получаются два во многом различных образа. Общее же между этими образами заключается именно в информационном инварианте.
Связь информации с разнообразием и отражением имеет важное методологическое следствие. Каждому виду отражения, так же как и каждому виду разнообразия, должен соответствовать свой вид информации и наоборот. Эта гипотеза нацеливает на поиск соответственных неизвестных компонентов триады «информация — отражение — разнообразие», если известен хотя бы один из них.
Выше была изложена концепция, которая, по мнению авторитетных специалистов [А6], является на сегодняшний день наиболее аргументированной и перспективной. Наряду с ней имеется и ряд других точек зрения на связь информации и отражения. Не останавливаясь на них подробно, покажем общую картину, основанную на классификации по двум критериям. Вопервых, имеется спектр точек зрения от простого отождествления информации с отражением до утверждения о возможности существования информационных процессов вне процессов отражения. Во втором случае иногда делается вывод о том, что информация есть более общая категория, чем отражение, и отражение определяется на основе информации.
Следующее разделение проходит по линии между «аспектными» и «видовыми» концепциями. Сторонники первых полагают, что информация входит как компонент, аспект, сторона в любые отражательные процессы. Следствием является признание атрибутивного характера информации. (Таким образом, изложенная выше теория относится к классу аспектных.)
Наоборот, в видовых теориях утверждается, что информация присуща лишь некоторым видам отражения и, по существу, тождественна им. Информация, согласно этой точке зрения, возникает только на уровне жизни, неразрывно связана с управлением, и существует только в единстве всех своих семиотических характеристик: синтаксических, семантических и прагматических (иными словами, то, что лишено полезности и не используется для какихлибо целей, — не есть информация). Один из выводов видовых теорий состоит в том, что в процессе познания информация не воспринимается человеком из неживой природы (ведь ее там просто нет), а создается в результате взаимодействия органов чувств с отражаемыми объектами. Как отмечено в [А6], предпочтение аспектной концепции должно быть отдано, в частности, потому, что только она позволяет говорить об объективном существовании информации
 
Информация и сложные системы
К определению понятия системы
 
Рассмотренные выше аспекты, стороны понятия информации относятся либо к статической информации, рассматриваемой в определенный момент времени, либо к наиболее примитивным актам ее движения. Анализ же информационных процессов невозможен без привлечения сведений о той среде, материальном субстрате, на котором эти процессы базируются. В самом деле, информация сама по себе не есть материя, это способ организации материальных объектов (например, совокупность состояний всех нейронов в мозгу). Следовательно, любые процессы обработки информации — это прежде всего процессы, происходящие в какихто объектах.
Существенно, что эти объекты не могут рассматриваться как неделимые: важно проследить движение информации внутри объекта. Важно также то, что для скольконибудь сложных информационных процессов внутреннее устройство объектов, в которых происходят эти процессы, должно быть тоже достаточно сложным. Методологической базой для изучения расчленимых сложных объектов является системноструктурный подход, который в настоящее время приобрел статус общенаучного метода ([А1], [А7], [А8], [А11], [А13], [Б2], [Б4], [Б5], [Б14], [Б19]). Основные понятия системного подхода изложены ниже.
Система есть множество связанных между собой компонентов той или иной природы, упорядоченное по отношениям, обладающим вполне определенными свойствами; это множество характеризуется единством, которое выражается в интегральных свойствах и функциях множества [А8].
Выделим некоторые явные и неявные характеристики систем, заключенные в приведенном определении.
1. Любые системы состоят из исходных единиц — компонентов. В качестве компонентов системы (в широком смысле) могут рассматриваться объекты, свойства, связи, отношения, состояния, фазы функционирования, стадии развития. В рамках данной системы и на данном уровне абстракции (конкретизации) компоненты представляются как неделимые, целостные и различимые единицы, то есть исследователь абстрагируется от их внутреннего строения, но сохраняет сведения об их эмпирических свойствах.
Объекты, представляющие собой единицы, из которых состоит система, могут быть материальными (например, атомы, составляющие молекулы, клетки, составляющие органы) или идеальными (например, различные виды числа составляют элементы теоретической системы, называемой теорией чисел).
Свойства системы, специфичные для данного класса объектов могут стать компонентами системного анализа. Например, свойствами термодинамической системы могут быть температура, давление, объем, а напряженность поля, диэлектрическая проницаемость среды поляризация диэлектрика суть свойства электростатических систем. Свойства могут быть как изменяющимися, так и неизменными при данных условиях существования системы. Свойства могут быть внутренними (собственными) и внешними. Собственные свойства зависят только от связей (взаимодействий) внутри системы, это свойства системы «самой по себе». Внешние свойства актуально существуют лишь тогда, когда имеются связи, взаимодействия с внешними объектами (системами).
Связи изучаемого объекта также могут быть компонентами при его системном анализе. Связи имеют вещественноэнергетический, субстанциальный характер. Аналогично свойствам, связи могут быть внутренними и внешними для данной системы. Так, если мы описываем механическое движение тела как динамическую систему, то по отношению к этому телу связи имеют внешний характер. Если же рассмотреть более крупную систему из нескольких взаимодействующих тел, то те же механические связи следует считать внутренними по отношению к этой системе.
Отношения отличаются от связей тем, что не имеют ярко выраженного вещественноэнергетического характера. Тем не менее, их учет важен для понимания той или иной системы. Например, пространственные отношения (выше, ниже, левее, правее), временные (раньше, позже), количественные (меньше, больше).
Состояния и фазы функционирования важны для анализа функциональных, действующих на протяжении длительного времени систем. Сам процесс функционирования (последовательность состояний во времени) познается путем выявления связей и отношений между различными состояниями. Примерами могут быть фазы сердечного ритма, сменяющие друг друга процессы возбуждения и торможения в коре головного мозга и др.
Наконец, этапы, стадии, ступени, уровни развития выступают компонентами генетических систем. Если состояния и фазы функционирования относятся к поведению во времени системы, сохраняющей свою качественную определенность, то смена этапов развития связана с переходом системы в новое качество.
2. Между компонентами множества, образующего систему, существуют системообразующие связи и отношения, благодаря которым реализуется специфическое для системы единство. Система обладает общими функциями, интегральными свойствами и характеристиками, которыми не обладают ни составляющие ее элементы, взятые по отдельности, ни простая «арифметическая сумма» элементов. Иначе говоря, свойства системы в целом неаддитивны по отношению к свойствам ее элементов и подсистем. Существенным показателем внутренней целостности системы является ее автономность, или относительная самостоятельность поведения и существования. По степени автономности можно в известной степени судить об уровне и степени их относительной организованности и самоорганизованности.
3. Существенными характеристикамилюбых систем являются присущие им организация и структура, с которыми тесно связано математическое описание систем.
4. Любая система существует лишь в определенных границах изменений ее свойств, поэтому обычно задаются максимальные и минимальные значения ее переменных.
5. Относительность понятий «компонент» («элемент») и «система» («структура») состоит в том, что любая система может, в свою очередь, выступать в качестве компонента или подсистемы более широкой системы. С другой стороны, компоненты, выступающие при анализе системы как нерасчлененные целые, при более детальном рассмотрении (микроанализе) сами по себе проявляют себя как системы. В любом случае (и именно это служит основой для расчленения системы на подсистемы) связи элементов внутри подсистемы сильнее, чем связи между подсистемами, и сильнее, чем связи между элементами, принадлежащими различным подсистемам. Существенно также то, что количество типов элементов (подсистем) ограничено, внутреннее разнообразие и сложность системы определяется, как правило, разнообразием межэлементных связей, а не разнообразием типов элементов.
6. Для любых (и особенно высокоорганизованных) систем важно выяснить характер связи подсистем, иерархических уровней внутри системы; в системе сочетаются взаимосвязь ее подсистем по одним свойствам и отношениям и относительная независимость по другим свойствам и отношениям. В самоуправляемых системах это выражается, в частности, в сочетании централизации деятельности всех подсистем с помощью центральной управляющей инстанции с децентрализацией деятельности уровней и подсистем, обладающих относительной автономностью.
7. Сложная система — это результат эволюции более простой системы. Система не может быть изучена, если не изучен ее генезис.
Итак, познание того или иного объекта как системы должно включать в себя следующие основные моменты: а) определение структуры и организации системы; б) определение собственных (внутренних) интегральных свойств и функций системы; в) определение функций системы как реакций на выходах в ответ на воздействие других объектов на входы; г) определение генезиса системы, т.е. способов и механизмов ее образования, а для развивающихся систем — способов их дальнейшего развития.
Особенно важной характеристикой системы является ее структура. Унифицированное описание систем на структурном языке предполагает определенные упрощения и абстракции. Если при определении компонентов системы мы абстрагировались от их строения, рассматривая их как нерасчлененные единицы, то следующий шаг заключается в отвлечении от эмпирических свойств компонентов, от их природы (физической, биологической и пр.) при сохранении различий по качеству. Таким образом, при анализе структуры мы имеем дело с абстрактными качественно различными единицами.
Между компонентами системы, как было отмечено выше, существуют различные связи и отношения. Сами способы связи и виды отношений зависят как от природы компонентов, так и от условий существования системы. Для понятия структуры специфичен особый и в то же время универсальный тип отношений и связей — отношения композиции элементов. Отношения порядка (упорядоченности) в системе существуют в двух видах: устойчивые и неустойчивые применительно к точно определенным условиям существования системы. Понятие структуры отображает устойчивую упорядоченность. Структура системы есть совокупность устойчивых связей и отношений, инвариантных по отношению к вполне определенным изменениям, преобразованиям системы. Выбор этих преобразований зависит от границ и условий существования системы. Структуры объектов (систем) того или иного класса описываются в виде законов их строения, поведения и развития.
В заключение кратко остановимся на взаимосвязи и взаимозависимости систем и составляющих их элементов. Здесь обнаруживаются следующие диалектические закономерности [Б5].
Относительная самостоятельность структуры, независимость ее от элементов. При удалении из системы одного или нескольких элементов структура может остаться неизменной, а система может сохранить свою качественную определенность (в частности, работоспособность). Удаленные элементы в некоторых случаях могут быть без ущерба заменены новыми, инокачественными. В этом проявляется преобладание внутренних структурных связей над внешними.
Зависимость структуры от элементов. Структура не существует как независимое от элементов организующее начало, а сама определяется составляющими ее элементами. Совокупность элементов не может сочетаться произвольным образом, следовательно, способ связи элементов (структура будущей системы) частично определяется свойствами элементов, взятых для ее построения. Например, структура молекулы определяется (частично) тем, из каких атомов она состоит.
Относительная самостоятельность элементов, независимость их от структуры. Вхождение элемента в структуру более высокого уровня мало сказывается на его внутренней структуре. Ядро атома не изменяется, если атом войдет в состав молекулы, а микросхеме «все равно», в составе какого устройства она функционирует.
Зависимость элементов от структуры. Элемент может выполнять присущие ему функции только в составе системы, только в координации с соседними элементами. В некоторых случаях даже скольконибудь длительное сохранение элементо своей качественной определенности невозможно за пределами системы. Рука, отрезанная от тела, есть рука только по названию (пример В. И. Ленина).
 
Информация в кибернетических системах
 
Все материальные системы можно рассматривать как преобразователи информации, работающие со своими собственными кодами. Именно такой подход был развит в работах Н. М. Амосова ([А1], [А11], [Б2]). Так, на атомном уровне код состоит из элементарных частиц, на молекулярном — из атомов, главным кодом социального уровня является речь. В связи с этим Н. М. Амосовым ставится проблема взаимоотношения высших и низших кодов. Большая белковая молекула может получать информацию, передаваемую низшими кодами — элементарными частицами и отдельными атомами. Но высший код для нее — молекулярный. Если на нее подействовать, скажем, словом, то она «не поймет», так как ее качество, ее структура не в состоянии воспринимать этот слишком высокий код.
В сложной системе Н. М. Амосов выделяет этажную структуру обработки информации. На каждом этаже функционирует своего рода транслятор, воспринимающий код низшего этажа и вырабатывающий код более высокий. При продвижении вверх информация убывает количественно (так как на каждом этаже происходит абстрагирование, отсечение множества несущественных деталей, присутствующих в низшем коде), но переходит в более высокое качество. Например, код молекул слишком низок для человека. Воздействие отдельной молекулы не может нами непосредственно восприниматься. Зато согласованное квазипериодическое движение множества молекул воздуха, проходя несколько этажей обработки, воспринимается нами как звук, затем — как слово, а на верхнем этаже переходит в понятие. Абстрагирование в этом случае заключается, например, в том, что при выделении слова из звука для нас несущественным становится тембр голоса говорящего, а при переходе к понятиям мы отвлекаемся от отдельных слов.
Высший код может быть разложен на знаки низшего кода, так как каждый знак высшего кода является результатом соединения определенным образом в пространстве или во времени некоторого числа низших знаков. Но заменить высший код низшим нельзя, так как переход от низшего кода к высшему есть качественный скачок.
Остановимся на характеристике процессов регулирования и управления в кибернетических системах (как живых, так и технических). Общей чертой всех кибернетических систем является то, что на протяжении всего периода существования они защищают сами себя от внешних возмущений ([А10], [А11], [Б19]). К этой защитной функции может быть так или иначе сведен обширный спектр более частных функций. Покажем, что основу и сущность данной функции составляют информационноотражательные процессы.
Под возмущением понимают воздействие на систему, стремящееся перевести ее из одного состояния в другое. Возмущения могут быть как внешними, так и внутренними, связанными с нарушением функционирования какоголибо органа внутри системы. Поскольку состояние системы характеризуется информационным содержанием (= разнообразием), то действие возмущения есть изменение разнообразия системы. Очевидно, не всякое изменение состояния системы совместимо с ее существованием. Так, при воздействии системы «кошка» на систему «мышь» последняя уничтожается (теряет свое прежнее качество). Таким образом, существование системы возможно лишь в определенном диапазоне изменения ее состояний.
Если под воздействием определенных возмущений система остается в пределах допустимых состояний (сохраняет свою качественную определенность), говорят, что она устойчива по отношению к данному типу возмущений. Устойчивость системы может быть достигнута двумя путями: вопервых, если на пути разнообразия возмущений ставится пассивная преграда, вовторых, если возможна активная защита от него.
Первый способ защиты применяется, в основном, сравнительно примитивными животными. Примерами могут служить всевозможные раковины и панцири. Однако основным способом сохранения устойчивости кибернетических систем является активная защита, состоящая в том, что между источником возмущений и системой ставится регулятор. Основная функция регулятора — в ответ на разнообразие возмущений вырабатывать контрразнообразие компенсирующих действий.
Процессы, происходящие во всех типах регуляторов, подчиняются фундаментальному закону, называемому законом необходимого разнообразия (У. Росс Эшби). Суть его состоит в следующем. Для того чтобы ответная реакция регулятора была адекватна возмущению, необходимо, чтобы регулятор сначала воспринял, отразил возмущение, вычленил существенную информацию о нем. А это означает, что информационная емкость (= разнообразие состояний) регулятора должно быть не меньше, чем разнообразие возмущений.
В процессе эволюции живых существ преимущество получили не «панцири», а «мозги». Совершенствование технических устройств также шло по линии от пассивной к активной защите. Наиболее общим механизмом активной защиты является управление по принципу обратной связи. Возмущения — это, по большей части, непредсказуемые, случайные процессы. Система, как правило, «узнает» о возмущении лишь после того, как подвергнется его действию и окажется переведенной в другое состояние, отличное от запланированного. Различие между заданным и действительным состоянием (между целью и результатом) оказывается сигналом для приведения в действие регулятора. Цель регулирования заключается в том, чтобы уменьшать данное различие (отрицательная обратная связь).
Стрелками показаны направления передачи информации. Система получает информацию о внешнем мире (M) и обрабатывает ее, после чего воздействует на внешний мир, передает ему часть информации (N). Известно, что только такая структура позволяет хранить и накапливать информацию. В ряде случаев количество информации, заключенной в системе, будет увеличиваться не непосредственно в результате внешнего воздействия на систему, а в результате взаимодействия потоков информации внутри самой системы. А именно, проходящий сквозь систему поток M–A–B–N взаимодействует с внутренним потоком B–C–D–A таким образом, что общее количество информации увеличивается.
Информация, циркулирющая по замкнутому контуру A–B–C–D–A, называется к связанной информацией, и может считаться частью структуры системы. Это устойчивые знания системы о внешнем мире, те знания, которые постоянно нужны для поддержания функционирования системы. Именно накопление связанной информации противостоит естественному процессу возрастания энтропии и обусловливает прогрессивное развитие системы, т.е. закономерное усложнение ее структуры, повышение уровня организации. Как видно из схемы, связанная информация может накапливаться в результате переработки свободной информации, т.е. той информации, которой система обменивается с внешним миром (M–A–B–N).
Системы, способные обмениваться информацией с внешним миром, подобно показанной на рис., называются открытыми. Системы можно классифицировать по их способности к взаимодействию и способности использовать информацию.
Управление в ибернетических системах можно разделить на три типа: самосохранение, саморазвитие и самовоспроизведение [А11]. Эти типы управления связаны с различными классами разнообразия и с различными видами генетического тождества.
В случае самосохранения конечная цель управления заключается в сохранении целостности, качественной определенности системы. Примером может служить относительная неизменность любого организма в его зрелом возрасте, нормальное функционирование кибернетических устройств, работающих по принципу обратной связи. Характерная черта этого типа управления — сохранение информационного содрежания структуры кибернетической системы и постоянство цели управления. При самосохранении кибернетическая система остается тождественной самой себе в структурном отношении. Назовем этот тип тождества генетическим тождеством первого рода.
Саморазвитие — более сложный тип управления. С точки зрения самосохранения необязательно совершенствование, прогресс системы. Саморазвитие же предполагает накопление структурной информации, а значит и изменение структуры. Система, саморазвиваясь, уже может изменять свой тип целостности, качественной определенности, оставаясь в то же время сама собой. Этот, более высокий тип тождества можно назвать генетическим тождеством второго рода. Примером саморазвивающихся систем могут быть эмбрионы, молодые, не достигшие зрелости организмы, а также самообучающиеся кибернетические устройства.
Еще более сложный тип управления — самовоспроизведение. Он свойствен живым организмам и обществу (экономике, науке, культуре и т. д.). Имеются и первые искусственные самовоспроизводящиеся системы — компьютерные вирусы, относящиеся не к классу устройств, а к чисто информационным образованиям. Общим для всех процессов самовоспроизводства является то, что при сохранении или даже увеличении информационного содержания одной системы ею прождается другая система, как правило, способная к саморазвитию. Иными словами, информация от первой системы не отбирается, а дублируется, причем частично. Потомок создается не как законченная и точная копия предка, а как «заготовка», наследующая лишь главные особенности структуры и способная самостоятельно накапливать информацию. Предок и потомок — это две различные системы, занимающие различные области в пространстве и существующие в различные промежутки времени. Поэтому то тождество, которое существует между ними (генетическое тождество третьего рода), имеет еще более высокий тип.
Общий вывод из приведенного рассмотрения состоит в том, что управление всегда связано или с сохранением, или с увеличением структурной информации системы. Впрочем, этот вывод нельзя абсолютизировать и считать, что если система имеет управление по принципу обратной связи, то ее информационное содержание не может уменьшаться. Дело в том, что управление в системе осуществляется лишь в отношении определенных возмущений, а другие возмущения не устраняются. В случае действия непредусмотренного возмущения, от которого система не может защититься, ее информационное содержание может снижаться. Таким образом, управление связано с сохранением или повышением количества информации лишь в определенном отношении и в определенных пределах.
Отражение и информация в кибернетических устройствах имеют ряд черт, присущих отражению и информации в неживой природе [А6]. Это связано с тем, что субстратом отражательных процессов, элементами кибернетических устройств являются неживые объекты, функционирующие по закоам физики. Однако организация этих устройств принципиально отличается от организации систем неживой природы, ибо они воплощают замысел человека.
© Рефератбанк, 2002 - 2024