Министерство образования и науки Российской Федерации
Федеральное государственное бюджетное образовательное учреждение
«Нижнетагильская государственная социально-педагогическая академия»
Институт естествознания, математики и информатики
Кафедра информационных технологий
Направление (специальность) Информатика
УТВЕРЖДАЮ
Зав. кафедрой информационных технологий _________ М.В.Мащенко
«___»__________2012 г.
Эволюция понятия «информация» в XIX и начале XX веков. История методов обработки информации в работах Шеннона, Эшби, Колмогорова
Реферат
Исполнитель:
студент, 31 И.
Кардаполова Д.В.
Руководитель: к.п.н., доцент кафедры информационных технологий
Беленкова И.В.
Нижний Тагил
2012
Оглавление
Введение 3
Глава 1. Эволюция понятия «информация» в XIX и начале XX веков 5
1.1. Понятие информации и его эволюция 5
1.2. Свойства информации 7
1.3. Эволюция информационных технологий 8
Глава 2. История методов обработки информации в работах Шеннона, Эшби, Колмогорова. 11
2.1. Понятие методов обработки информации 11
2.2. Вклад Шеннона, Эшби, Колмогорова в изучение информации и методов ее обработки. 12
Заключение 20
Список литературы 22
Приложения. Биографическая справка 23
_Toc321085369
Введение
В современном мире существует множество определений понятия «информация». От самых общих возвышенно-философских типа «информация есть отражение реального мира» или «информация есть всеобщее свойство материи и мера организации систем» до сугубо практических «информация есть сведения, являющиеся объектом сбора, преобразования, хранения и передачи».
Информационные процессы, т.е. процессы хранения, передачи и переработки информации, всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, посланиями. Они передают друг другу просьбы, приказы, отчеты о проделанной работе, описи имущества; публикуют рекламные объявления и научные статьи; хранят старые письма и документы; долго размышляют над полученными известиями или немедленно кидаются выполнять указания начальства. Все это – информационные процессы.
Теория информации имеет дело с отображениями предметов или явлений в виде образов, символов. Символы могут быть разнообразными, такими, например, как последовательность электромагнитных импульсов, поступающая со спутника связи, телевизионное изображение, устная и письменная речь, генетический код, записывающий наследуемые свойства в биологических клетках. Создание оптимальной системы символов, отражающих свойства объектов (кодирование), получение сведений об объектах по свойствам символов (декодирование) – вот типичные задачи теории информации. Сейчас теорию информации считают одним из разделов кибернетики – науки об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество.
Цель реферата: выявить значение работ Шеннона, Эшби, Колмогорова в изучении понятия «информация».
Задачи:
Проследить эволюцию понятия «информация» в указанный период.
Проанализировать вклад ученых в историю методов обработки информации.
Глава 1. Эволюция понятия «информация» в XIX и начале XX веков
Понятие информации и его эволюция
Информация – это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.
Термин «информация» в переводе с латинского означает осведомление, разъяснение, представление.
Поскольку информацию рассматривают в самых различных отраслях знания, то и ее понимание также является различным.
В зависимости от области знания, в которой проводилось исследование, информация получила множество определений: информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер); информация – отрицание энтропии (Бриллюэн); информация – коммуникация и связь, в процессе которой устраняется неопределенность (К.Э. Шеннон); информация – передача разнообразия (У.Р. Эшби); информация – оригинальность, новизна; информация – мера сложности структур (Моль); информация – вероятность выбора (И.М. Яглом); и т.д. Каждое из этих определений раскрывает ту или иную грань (аспект) этого многозначного понятия.
Начало научному изучению информации как таковой положено в работах Н. Винера, У.Р. Эшби, которые связывали информацию с теорией управления и К.Э. Шеннона, который ввел меру количества информации – бит.
Выделяются три подхода в рассмотрении информации: функциональный, атрибутивный и субстанционный.
В контексте функционального подхода информация рассматривается в связи с функционированием самоорганизующихся систем, как правило, живых, или, в крайнем случае, сложных кибернетических устройств.
Функциональный подход нашел отражение в работах Д.И. Дубровского, который констатирует, что самоорганизующиеся системы "возникают исторически в период становления жизни на Земле". Н.Н. Моисеев отмечает, что при рассмотрении эволюции до появления живой материи понятие информации можно не использовать, «…информация появится в нем лишь тогда, когда мы начнем изучать системы с целеполаганием, то есть объекты, способные к целенаправленным действиям».
«Атрибутисты» квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи (Б.В. Ахлибининский, Л.Б. Баженов, Б.В. Бирюков, К.Е. Морозов, И.Б. Новик, Л.А. Петрушенко, А.Д. Урсул и др.).
Предтечей атрибутивного подхода можно рассматривать негэнтропийную концепцию связанной информации Л. Бриллюэна.
Дальнейшее развитие атрибутивного подхода нашло отражение в работах Ф.И. Перегудова и Ф.П. Тарасенко, Е. А.Седова, А.И. Уёмова, Ю.А. Урманцева, А.Д. Урсула, В его контексте информация рассматривается как мера упорядоченности структур и взаимодействий. Так, Е.А. Седов считает, что хранилищем информации объектов неживой природы является их собственная упорядоченная структура.
В монографии В.П. Попова и И.В. Крайнюченко анализируются и функциональный и атрибутивный подходы и делается вывод, что никакого противоречия между ними нет, поскольку функциональный подход рассматривает внешнюю сторону информации, а атрибутивный – ее внутреннюю сущность.
Субстанционное понимание информации раскрывается в работах А.Е. Акимова, А.А. Силина, И.И. Юзвишина.
Например, А.А. Силин рассматривает мироздание как непрерывное единство сознания (как информационной структуры) и материи. Он же отождествляет прирост информации с эволюцией, под которой понимает развитие от простого к сложному.
Таким образом, развитие понятия информации привело ученых к выводу, что ее можно рассматривать как субстанцию, определяющую единство и развитие мира. Здесь возможны два подхода. Либо информация является первичной и порождает материю (философский монизм), либо материя и информация существуют как равноправные субстанции (философский дуализм). Но в том и другом случае информация присуща мирозданию как его органическая неразрывная часть.
Анализ философских концепций показывает, что подобные представления были порождены в глубокой древности и сохранились до наших дней[5].
Свойства информации
Информация обладает различными свойствами. Для их систематизации используют разные варианты её деления (классификации).
Классификация – деление объектов на классы, образуемые в соответствии с определёнными признаками.
Информацию можно систематизировать по способу восприятия органами чувств: аудиальная, визуальная, обонятельная, вкусовая, тактильная.
Компьютерные устройства воспринимают информацию по форме её представления, как: текстовую, графическую, числовую (цифровую), звуковую, видео (статическую и динамическую), мультимедийную (комбинированную), а также: оптическую и электромагнитную.
По содержанию информацию делят на: экономическую, правовую, техническую, социальную, статистическую, организационную и т.д. Содержание информации обычно определяет её назначение.
Чтобы принимать правильные решения нам нужна информация. Необходимо, чтобы она имела следующие свойствами или качественные признаки:
1. Объективность информации. Информация объективна, если она не зависит от чьего-либо мнения.
2. Достоверность. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам:
1) искажение в результате действия помех;
2) преднамеренное искажение (дезинформация);
3) когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи).
3. Полнота информации. Информацию называют полной, если ее достаточно для понимания и принятия решения. Неполная информация может привести к ошибочному выводу или решению. (Русская пословица «Недоученный хуже неученого»).
4. Актуальность (своевременность) информации – важность, существенность для настоящего времени. Только вовремя полученная информация может принести пользу. Неактуальной может быть информация по двум причинам:
5. Ценность (полезность или бесполезность) информации оценивается применительно к задачам, которые можно решить с ее помощью.
Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая.
Самая достоверная информация не может быть новой.
6. Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.
1.3. Эволюция информационных технологий
Под термином «информационные технологии» понимается:
1. совокупность программно-технических средств вычислительной техники (СВТ), приёмов, способов и методов их применения, предназначенных для сбора, хранения, обработки, передачи и использования информации в конкретных предметных областях;
2. совокупность методов, производственных и программно-технологических средств, объединённых для обеспечения сбора, хранения, обработки, вывода и распространения информации.
Информационные технологии предназначены для снижения трудоёмкости процессов использования информационных ресурсов.
До второй половины XIX века основу информационных технологий составляли перо, бухгалтерская книга и чернильница. Передача информации осуществлялась через курьеров, почтальоном, посредников. Такая связь была очень ненадёжной, зависела от множества посторонних факторов, таких как погода, здоровье курьера, даже его настроение. Продуктивность информационной обработки была крайне низкой, каждое письмо копировалось отдельно вручную, помимо счетов, суммируемых так же вручную, не было другой информации для принятия решений.
На смену «ручной» информационной технологии в конце XIX века пришла «механическая». Изобретение пишущей машинки, телефона, диктофона, модернизация системы общественной почты – все это послужило базой для принципиальных изменений в технологии обработки информации и, как следствие, в продуктивности работы. По существу «механическая» технология проложила дорогу к формированию организационной структуры существующих учреждений.
40 – 60-е гг. XX века характеризуются появлением «электрической» технологии, основанной на использовании электрических пишущих машинок со съемными элементами, копировальных машин на обычной бумаге, портативных диктофонов. Они улучшили учрежденческую деятельность за счет повышения качества, количества и скорости обработки документов.
Появление во второй половине 60-х годов больших производительных ЭВМ на периферии учрежденческой деятельности (в вычислительных центрах) позволило смесить акцент в информационной технологии на обработку не формы, а содержания информации. Это было началом формирования «электронной», или «компьютерной» технологии. Как известно информационная технология управления должна содержать как минимум 3 важнейших компонента обработки информации: учет, анализ и принятие решений. Эти компоненты реализуются в «вязкой» среде – бумажном «море» документов, которое становится с каждым годом все более необъятным.
Существенным недостатком неавтоматизированных информационных систем является обособленность сбора, обработки и использования информации. Причем как отдельные работники, так и подразделения предприятия в целом не имеют доступа к «чужой» базе данных, при необходимости собирая требующуюся им информацию самостоятельно. Если провести аналогию со сферой производства и распределения энергии, то такое состояние соответствует средневековью, когда каждый потребитель энергии строил свою плотину с водяным колесом на расположенной рядом речке или ручье. При современном состоянии энергетики в эпоху электричества энергия производится централизованно и распределяется по сети каждому из потребителей, которые могут ее расходовать, сколько и когда им необходимо.
Глава 2. История методов обработки информации в работах Шеннона, Эшби, Колмогорова.
2.1. Понятие методов обработки информации
Известно, что информацию можно:
создавать (генерировать),
передавать (транслировать),
хранить и сохранять,
обрабатывать (перерабатывать).
Остановимся на последнем ее свойстве – обработке информации.
Поскольку информация не материальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными.
Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.
Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной, семантическая информация не имеет статистических характеристик, то есть количественной меры – смысл либо есть, либо его нет. А сколько его, если он есть – установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.
Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин.
Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.
Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.
2.2. Вклад Шеннона, Эшби, Колмогорова в изучение информации и методов ее обработки.
Шеннон Клод Элвуд – американский инженер и математик, его работы являются синтезом математических идей с конкретным анализом чрезвычайно сложных проблем их технической реализации (Приложение №1).
Он является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. Шеннон внес огромный вклад в теорию вероятностных схем, теорию автоматов и теорию систем управления – области наук, входящие в понятие «кибернетика». В 1948 году предложил использовать слово «бит» для обозначения наименьшей единицы информации (в статье «Математическая теория связи»).
Работа Шеннона «Теория связи в секретных системах» (1945) с грифом «секретно», которую рассекретили и опубликовали только лишь в 1949 году, послужила началом обширных исследований в теории кодирования и передачи информации, и, по всеобщему мнению, придала криптографии статус науки. Именно Клод Шеннон впервые начал изучать криптографию, применяя научный подход. В статье Шеннон определил основополагающие понятия теории криптографии, без которых криптография уже немыслима. Важной заслугой Шеннона является исследования абсолютно стойких систем и доказательство их существования, а также существование криптостойких шифров, и требуемые для этого условия. Шеннон также сформулировал основные требования, предъявляемые к надежным шифрам. Он ввёл ставшие уже привычными понятия рассеивания и перемешивания, а также методы создания криптостойких систем шифрования на основе простых операций. Данная статья является отправным пунктом изучения науки криптографии.
Статья «Математическая теория связи» была опубликована в 1948 году и сделала Клода Шеннона всемирно известным. В ней Шеннон изложил свои идеи, ставшие впоследствии основой современных теорий и техник обработки, передачи и хранения информации. Результаты его работ в области передачи информации по каналам связи запустили огромное число исследований по всему миру. Шеннон обобщил идеи Хартли и ввёл понятие информации, содержащейся в передаваемых сообщениях. В качестве меры информации передаваемого сообщения, Хартли предложил использовать логарифмическую функцию. Шеннон первым начал рассматривать передаваемые сообщения и шумы в каналах связи с точки зрения статистики, рассматривая как конечные, так и непрерывные множества сообщений. Развитая Шенноном теория информации помогла решить главные проблемы, связанные с передачей сообщений, а именно: устранить избыточность передаваемых сообщений, произвести кодирование и передачу сообщений по каналам связи с шумами.
Решение проблемы избыточности подлежащего передаче сообщения позволяет максимально эффективно использовать канал связи. К примеру, современные повсеместно используемые методы снижения избыточности в системах телевизионного вещания на сегодняшний день позволяют передавать до шести цифровых программ коммерческого телевидения, в полосе частот, которую занимает обычный сигнал аналогового телевидения.
Решение проблемы передачи сообщения по каналам связи с шумами при заданном соотношении мощности полезного сигнала к мощности сигнала помехи в месте приема, позволяет передавать по каналу связи сообщения со сколь угодно малой вероятностью ошибочной передачи сообщения. Также, это отношение определяет пропускную способность канала. Это обеспечивается применением кодов, устойчивых к помехам, при этом скорость передачи сообщений по данному каналу должна быть ниже его пропускной способности.
В своих работах Шеннон доказал принципиальную возможность решения обозначенных проблем, это явилось в конце 40-х годов настоящей сенсацией в научных кругах. Данная работа, как и работы, в которых исследовалась потенциальная помехоустойчивость, дали начало огромному числу исследований, продолжающихся и по сей день, уже более полувека.
На сегодняшний день все системы цифровой связи проектируются на основе фундаментальных принципов и законов передачи информации, разработанных Шенноном. В соответствии с теорией информации, вначале из сообщения устраняется избыточность, затем информация кодируется при помощи кодов, устойчивых к помехам, и лишь потом сообщение передается по каналу потребителю. Именно благодаря теории информации была значительно сокращена избыточность телевизионных, речевых и факсимильных сообщений.
Большое количество исследований было посвящено созданию кодов, устойчивых к помехам, и простых методов декодирования сообщений. Исследования, проведенные за последние пятьдесят лет, легли в основу созданной Рекомендации МСЭ по применению помехоустойчивого кодирования и методов кодирования источников информации в современных цифровых системах.
Уильям Росс Эшби – английский психиатр, специалист по кибернетике, пионер в исследовании сложных систем (Приложение №3).
В книге «Введение в кибернетику» У. Р. Эшби показал, какое большое значение имеют понятия различия и разнообразия для кибернетики. Слово «отражение» У. Р. Эшби не употребляет, и, тем не менее, идея отражения в книге присутствует, выраженная в иных терминах.
Кибернетика не может не пользоваться понятием отражения. Процессы движения информации – передача, восприятие, хранение, преобразование – все это определенные формы отражения, движения разнообразия. Если говорить в терминах Эшби, всегда в подобных процессах обнаружим операнд, оператор и образ. Если же перейти к понятиям теории отражения, то мы также здесь всегда обнаружим взаимодействие (воздействие) одного объекта на другой, передачу разнообразия от одного объекта (отражаемого) к другому (отражающему), формирование в последнем образа (отражения).
Связь понятий отражения и информации в кибернетике приобретает не только методологический и общетеоретический интерес, но и практический – ведь на основе научной интерпретации этих понятий создаются всевозможные кибернетические устройства, строится взаимодействие человека с техническими системами связи и управления.
Хранение информации – это передача информации не в пространстве, а во времени, воспроизведение одного и того же состояния объекта, когда образ объекта совпадает с самим объектом, но разделен лишь интервалом времени. Такое «отражение во времени» есть то, что У. Р. Эшби называет тождественным преобразованием, когда «не происходит никаких изменений и каждый образ совпадает со своим операндом».
Подобная интерпретация явления хранения информации как процесса отражения во времени является несколько необычной. И это действительно особая форма понятия отражения, которая еще требует своего исследования, ибо здесь отражение основано не на причинности, а на связи состояний. И, тем не менее, хранение информации есть тоже результат отражения, но уже обусловленный «отсутствием» воздействия внешних объектов и процессов внутреннего разрушения отображения. Хранение информации обеспечивается устойчивыми внутренними взаимодействиями. Именно поэтому для хранения информации выбираются в основном твердые тела, а не жидкие или газообразные, внутренние процессы в которых обычно ведут к разрушению следов, к стиранию информации. Однако для хранения информации пригодны не всякие твердые тела, а лишь такие, которые могут устойчиво сохранять следы внешних воздействий, когда таких воздействий уже нет. Этим свойством обладают лишь некоторые твердые тела, например железо, ферриты, ферросплавы и другие аналогичные материалы, которые сохраняют эффект остаточного (положительного или отрицательного) намагничивания.
У. Р. Эшби обращает внимание на то, что в любой данный момент разнообразие не существует в самом преобразователе. Если имеется в виду один и тот же преобразователь (переключатель, логический элемент), то он «может обнаруживать разнообразие состояний, занимаемых им в различных случаях». Но если мы рассматриваем несколько преобразователей в один и тот, же момент, то они обнаруживают разнообразие занимаемых ими состояний. В этом смысле часть или вся электронно-вычислительная машина может рассматриваться как некоторое множество с разнообразием состояний логических элементов (преобразователей).
Процесс обработки информации выступает как сложное взаимодействие внешних и внутренних процессов отражения, когда «внешнее» разнообразие изменяется, по определенной программе в результате процессов самоотражения. Принципы отражения и разнообразия, концепция информации как отраженного разнообразия лежат в фундаменте работы преобразователей информации, кибернетических вычислительных машин.
Если при передаче разнообразия по техническим каналам связи ставится задача воспроизведения в другом месте пространства исходного разнообразия с возможно большей точностью, то преобразование разнообразия преследует иные цели. Здесь уже главная задача не сохранение разнообразия (это функция лишь элементов памяти), а изменение по заранее заготовленной программе последовательности простых операций (например, упомянутых логических функций).
Введенная в ЭВМ информация (отраженное разнообразие внешних воздействий) преобразовывается согласно управляющей программе. Здесь «внешнее» разнообразие изменяется в результате внутренних отражательных процессов, представляющих собой просто передачу электрического импульса (который оставляет след), или в результате размыкания цепи.
Колмогоров Андрей Николаевич – величайший русский математик ХХ столетия, создатель современной теории вероятностей, автор классических результатов в теории функций, в математической логике, топологии, теории дифференциальных уравнений, функциональном анализе, в теории турбулентности, теории гамильтоновых систем (Приложение №2). Созданные им школы в теории вероятностей, теории функций, функциональном анализе и теории гамильтоновых систем определили развитие этих направлений математики в ХХ столетии. В истории российской науки его имя стоит рядом с именами М. В. Ломоносова, Д. И. Менделеева - ученых, всей своей жизнью прославивших Россию.
К теории информации интересы Андрея Николаевича обращаются с 1955 г. Для распространения и популяризации в нашей стране этой теории он сделал исключительно много. В июне 1956 г. он (совместно с И. М. Гельфандом и А. М. Ягломом) выступает на эту тему на третьем Всесоюзном математическом съезде в Москве, а в октябре 1956 г. делает доклад перед Общим собранием Академии наук СССР. Напряженное сосредоточение мысли на идеях шенноновской теории информации приводит А. Н. Колмогорова к совершенно неожиданному и смелому синтезу этих идей сперва с развитыми им же в 30-е годы идеями теории приближения, а затем с идеями теории алгоритмов.
В начале 60-х годов Андрей Николаевич решил реконструировать фундамент теории информации. Об этом периоде своей работы он писал так: «...занятия совсем общими полуфилософскими размышлениями у меня самого заняли больше времени и энергии, чем, может быть, кажется издали. В такой выработке совсем общих взглядов итог усилий заключается не в формулировке точно фиксированных «результатов», а в общей перестройке собственного сознания и размещения всего в надлежащей перспективе. Поэтому потом оказывается, что как бы и ничего не открыл «нового», а потратил, много сил и времени». Академик лукавит. Он открыл, всего-навсего, новое направление в теории информации. С появлением в 1965 году статьи А. Н. Колмогорова «Три подхода к определению понятия количества информации» родилась алгоритмическая теория информации, в основе которой лежало понятие колмогоровской сложности конечного объекта. Продолжая исследования, Андрей Николаевич приходит к следующему решительному выводу: «Теория информации должна предшествовать теории вероятностей, а не опираться на нее». Строгое построение теории вероятностей на базе теории информации – дело будущего.
Наиболее богатая содержанием и наиболее увлекательная с чисто математической стороны часть теории информации – теория стационарно работающих каналов связи, передающих непрерывные сообщения, – не могла бы быть создана без заранее разработанной теории стационарных случайных процессов и, в частности, без спектральной теории таких процессов.
Интерес к разнообразным задачам передачи и хранения информации имеет большую давность. Давно, по существу, возникали вопросы об оценке «количества» информации. Вопрос о возможности введения универсальной числовой меры для количества информации особенно важен в случаях необходимости преобразования информации одного рода в информацию качественно другого рода.
Заключение
Информационные ресурсы в современном обществе играют не меньшую, а нередко и большую роль, чем ресурсы материальные. В связи с этим большая роль отводиться и методам обработки информации. Появляются всё более и более совершенные компьютеры, новые, удобные программы, современные способы хранения, передачи и защиты информации.
Пользователь ЭВМ должен знать общие принципы организации информационных процессов в компьютерной среде, уметь выбрать нужные ему информационные системы и технические средства и быстро освоить их применительно к своей предметной области.
Строгого научного определения понятия “информация” нет. Считается, что существует более 300 толкований этого термина. В любом случае слово “информация” происходит от латинского «informatio», означающего разъяснение, осведомление, содержание сообщения, сведения с учётом их передачи в пространстве и времени.
С содержательной точки зрения «информация» – это сведения о ком-то или о чём-то, а с формальной точки зрения – набор знаков и сигналов. В различных науках слово “информация” понимается по-разному.
В 1948 г. Клод Шеннон сформулировал один из законов теории информации, в котором говорится, что информация в коммуникациях (при передаче данных) должна устранять неопределенность (энтропию - неупорядоченное (хаотическое) состояние). Согласно этому закону каждый сигнал имеет заранее известную вероятность появления. Чем меньше вероятность появления сигнала, тем больше информации он несёт для потребителя.
Один из отцов кибернетики, психолог Росс Эшби сформулировал закон необходимого разнообразия: «Чтобы управление системой было возможно, разнообразие управляющих действий должно быть не меньше разнообразия возмущений на входе в систему». На бытовом языке это значит, что сложность можно победить только тем же, как минимум, уровнем сложности.
Колмогоров А.Н. – один из основоположников современной теории вероятностей, им получены фундаментальные результаты в геометрии, математической логике, классической механике, теории турбулентности, теории сложности алгоритмов, теории информации, теории функций, теории тригонометрических рядов, теории множеств, теории дифференциальных уравнений и в ряде других областей математики и её приложений.
На 50-е и начало 60-х годов приходится взлет математического творчества Колмогорова. Им составлены фундаментальные работы по многим направлениям, например, по теории вероятностей конструктивных объектов, где предложенные им идеи измерения сложности объекта нашли многообразные применения в теории информации, теории вероятностей и теории алгоритмов.
Современному студенту важно и интересно проследить эволюцию понятия «информация» и заглянуть в историю методов обработки информации.
Тема оказалась очень сложной, выводы в работах предложенных ученых носят научный и углубленный характер, не всегда понятные автору реферата. Получены первоначальные сведения по данной теме.
Список литературы
Кибернетика, информация, отражение [Электронный ресурс]: http://sbiblio.com/biblio/archive/ursul_otraj/01.aspx
Колмогоров А.Н., Теория информации и теория алгоритмов. — М.: Наука, 1987. — 304 с.
Колмогоров Андрей Николаевич [Электронный ресурс]: http://www.kolmogorov.info/
Поспелов Д.А., Информатика: Энциклопедический словарь для начинающих. – М.: Педагогика-пресс, 1994. – 352 с.
Становление понятия «информация» [Электронный ресурс]: http://www.rae.ru/monographs/21-547
Философия информационной цивилизации [Электронный ресурс]:
http://www.vipstudent.ru/index.php
Шеннон, Клод [Электронный ресурс]: http://ru.wikipedia.org/wiki/Шеннон,_Клод_Элвуд
Эшби У.Р. Введение в кибернетику. М., 1959. – 433 с.
Эшби, Уильям [Электронный ресурс] http://ru.wikipedia.org/wiki/Эшби,_Уильям_Росс
Приложение №1
Биографическая справка
Клод Элвуд Шеннон
(1916 - 2001)
Клод Шеннон родился 30 апреля 1916 года в городе Петоцки, штат Мичиган, США. Первые шестнадцать лет своей жизни Клод провел в Гэйлорде, Мичиган, где в 1932 году он закончил общеобразовательную среднюю школу Гэйлорда. Молодой Клод увлекался конструированием механических и автоматических устройств. Он собирал модели самолетов и радиотехнические цепи, создал радиоуправляемую лодку и телеграфную систему между домом друга и своим домом.
В 1932 году Шеннон был зачислен в Мичиганский университет, где выбрал курс, посещая который начинающий ученый познакомился с работами Джорджа Буля. В 1936 году Клод оканчивает Мичиганский университет, получив степень бакалавра по двум специальностям математика и электротехника, и устраивается в Массачусетский технологический институт (MIT), где он работал ассистентом-исследователем на дифференциальном анализаторе Ванневара Буша – аналоговом компьютере. Изучая сложные, узкоспециализированные электросхемы дифференциального анализатора, Шэннон увидел, что концепции Буля могут получить достойное применение. Статья, написанная с его магистерской работы 1937 года «Символьный анализ реле и коммутаторов», была опубликована в 1938 году в издании Американского института инженеров-электриков (англ.)русск. (AIEE). Она также стала причиной вручения Шэннону Премии имени Альфреда Нобеля Американского института инженеров-электриков в 1940 году. Цифровые цепи – это основа современной вычислительной техники, таким образом, результаты его работ являются одними из наиболее важных научных результатов ХХ столетия. Говард Гарднер из Гарвардского университета отозвался о работе Шэннона, как о «возможно, самой важной, а также самой известной магистерской работе столетия».
Докторская диссертация Шеннона, получившая название «Алгебра для теоретической генетики», была завершена весной 1940 года. Шеннон получает докторскую степень по математике и степень магистра по электротехнике.
В период с 1941 по 1956 гг. Шеннон преподает в Мичиганском университете и работает в компании Белл (Bell Labs). В лаборатории Белл Шеннон, исследуя переключающие цепи, обнаруживает новый метод их организации, который позволяет уменьшить количество контактов реле, необходимых для реализации сложных логических функций.
С 1950 по 1956 Шеннон занимался созданием логических машин, таким образом, продолжая начинания фон Неймана и Тьюринга. Он создал машину, которая могла играть в шахматы, задолго до создания Deep Blue. В 1952 Шеннон создал обучаемую машину поиска выхода из лабиринта.
Он был разработчиком первой промышленной игрушки на радиоуправлении, которая выпускалась в 50-е годы в Японии. Также он разработал устройство, которое могло складывать кубик Рубика, мини компьютер для настольной игры Гекс, который всегда побеждал соперника, механическую мышку, которая могла находить выход из лабиринта. Также он реализовал идею шуточной машины «Ultimate Machine»[7].
Приложение №2
Андрей Николаевич Колмогоров
(1903-1987)
Андрей Николаевич родился 25 апреля 1903 в Тамбове. C 1920 г. по 1925 г. он учится в Московском университете. Будучи студентом, в 1922 г. он построил ряд Фурье, расходящийся почти всюду, что приносит ему мировую известность. В 1931 г. становится профессором МГУ. В 1933 г. он назначается директором Института математики и механики при МГУ. В 1935 г. на механико-математическом факультете МГУ он основал кафедру теории вероятностей (которой заведовал до 1966 г.). В 1939 г. А.Н.Колмогоров избирается действительным членом Академии наук СССР и он становится (по 1942 г.) академиком-секретарем Отделения физико-математических наук. В конце 30-х и начале 40-х годов А.Н. Колмогоров начинает интересоваться проблемами турбулентности и в 1946 г. организует лабораторию атмосферной турбулентности Института теоретической геофизики АН СССР.
С 1936 г. Андрей Николаевич много сил отдает работе по созданию Большой и Малой Советских Энциклопедий. Он возглавляет математический отдел и сам пишет для энциклопедий много статей. В 1960 г. он создает межфакультетскую лабораторию вероятностных и статистических методов (которой заведовал с 1966 г. по 1976 г.), одной из основных задач которой было широкое использование современных методов теории вероятностей и математической статистики в естественно-научных и гуманитарных исследованиях.
В 1976 г. в МГУ была открыта кафедра математической статистики, которой А.Н.Колмогоров заведовал до 1979 г. С 1980 г. и до конца своей жизни Андрей Николаевич заведовал кафедрой математической логики. В 1953 г. А.Н. Колмогоров был избран почетным членом Московского математического общества, а в период с 1964 по 1966 и с 1973 по 1985 г. он являлся его Президентом. В разные годы А.Н.Колмогоров был членом редколлегий журналов «Математический сборник», «Доклады АН СССР», «Успехи математических наук». С 1946 по 1954 г. и с 1983 г. по день кончины Андрей Николаевич был главным редактором «Успехов математических наук». В 1956 г. Колмогоров основывает журнал «Теория вероятностей и ее применения» и, с первого выпуска 1956 г. являлся главным редактором этого журнала.
В 1931 г. выходит в свет его фундаментальная статья «Об аналитических методах в теории вероятностей», а в 1933 г. – монография «Основные понятия теории вероятностей». Здесь завершается задача построения теории вероятностей как целостной математической теории.
А.Н. Колмогорова был одним из самых выдающихся представителей современной математики в самом широком смысле этого слова, включающем и прикладную математику
Ему было присвоено звание Героя Социалистического Труда (1963 г.), он был награжден семью орденами Ленина, другими орденами и медалями СССР, а также венгерским орденом Знамени, медалью им. Гельмгольца Академии наук ГДР, золотой медалью Американского метеорологического общества.
Приложение №3
Уильям Росс Эшби
(1903 - 1972)
Окончил Кембриджский университет. С 1930 работал психиатром. С 1947 по 1959 годы Эшби был руководителем исследований в госпитале en:Barnwood House Hospital в Глочестере, Англия. В 1959 – 1960 директор Берденского нейрологического института в Бристоле (Burden Neurological Institute). С 1960 – профессор кибернетики и психиатрии Иллинойсского университета, Department of Electrical Engineering (Эрбана, США). В 1971 году стал членом Королевского колледжа психиатрии (en:Royal College of Psychiatry).
Эшби принадлежит изобретение гомеостата (1948), введение понятия самоорганизации. Он сформулировал закон о требуемом разнообразии, названный его именем (закон Эшби): «управление может быть обеспечено только в том случае, если разнообразие средств управляющего (в данном случае всей системы управления) по крайней мере, не меньше, чем разнообразие управляемой им ситуации».