Вход

Критический анализ определений понятия "информация" и способы ее измерения

Рекомендуемая категория для самостоятельной подготовки:
Реферат*
Код 255443
Дата создания 24 октября 2015
Страниц 27
Мы сможем обработать ваш заказ (!) 26 апреля в 16:00 [мск]
Файлы будут доступны для скачивания только после обработки заказа.
1 150руб.
КУПИТЬ

Описание

Критический анализ определений понятия "информация" и способы ее измерения ...

Содержание

Введение………………………………………………………………….……..3
1. Понятие информации: критический анализ………………………….…….4
2. Классификация и свойства информации……………………………….…..9
3. Единицы и способы измерения информации……………………….…….12
Заключение……………………………………………………………….……14
Список литературы………………………………………………….………...15

Введение

К концу ХХ в. стала складываться наиболее полная информационная картина мира, рассматривающая мир под определенной точкой зрения, при этом не противолежащая вещественно-энергетической картине мира.
Строение системы различных природ, таких как биологические, социальные, технические, невозможно объяснить без рассмотрения закономерностей информационных процессов.
Мыслительная деятельность человечества, в первую очередь, обновляет информационную картину мира, причем каждое поколение передает свой опыт человечеству. Постоянное информационное общение между людьми носит достаточно осознанный и познавательный характер. На сегодняшний день информацию трудно представить себе общественные и социальные отношения людей без информации. Но восприятие информации носит субъективный характер, и зависит от большого количество факторов: профессии, степени культуры, темперамента, отношения и др.
Исходя из вышеизложенного, данная работа является актуальной в наши дни, ведь современный человек не может представить себя без понятия «информация».
Целью работы является изучение основных особенностей информации.
Достижение цели предполагает решение ряда задач:
1) сделать критический анализ определений понятия “информация”;
2) проанализировать классификацию и свойства понятия информация
3) изучить единицы и способы измерения информации.
Коммуникации и общение, а также обмен информацией присущи всем живым существам, но в особенности — человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, отличающую его от остального живого мира.

Фрагмент работы для ознакомления

В связи с этим возникла потребность в изменении трактовки понятия информации. Оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке.Говоря об информации нельзя не упомянуть о достаточно важном аспекте передачи информации, как канал связи.Каналом связи называется материальная среда, или как некоторый физический процесс, по средствам которого осуществляется некоторая передача сообщений. Или канал связи можно определить, как распространение сигналов в пространстве в определенный промежуток времени. Каналы связи подразделяются на дискретные (напр. компьютерная сеть) и аналоговые (телефонная линия). В таблице 1.3 представлены примеры каналов связи.Таблица 1.3. Примеры каналов связиКанал связиСредаНоситель сообщенияПроцесс, используемый для передачи сообщенияТелефон,компьютерные сетиПроводникЭлектрический токПеремещение электрических зарядовРадио, телевидениеЭлектромагнитноеполеЭлектромагнитные волныРаспространение электромагнитных волнЗрениеЭлектромагнитноеполеСветовые волныРаспространение световых волнСлухВоздухЗвуковые волныРаспространение звуковых волнОбоняние, вкусВоздух, пищаХимические веществаХимические реакцииВсе канали связи, используемые человеком, подвержены некоторому внешнему воздействию, которые называют шумами или помехами. Источники помех могут носить внешний характер (например, атмосферные явления), так и внутренний (например, процессы затухания сигнала в линии связи из-за большой удаленности).Характерными чертами информации являются следующие факторы:Информация важнейший ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;информация является товаром, причем продавец информации ее не теряет после продажи. информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним [2].Конечно, без информации не может существовать жизнь любого человека, в частности просто не будет информационной системы. Информация составляет определенную ноосферу общества т.е. более высокое состояние биосферы, возникшее в результате эволюции, структурирования, упорядочивания и гармонизации связей в природе и обществе под воздействием целеполагающей деятельности человечества. Данное понятие ввел В.И. Вернадский в качестве отражения эволюции общества и природы.Бег гармонизации науке о природе и познании об обществе невозможно построение информационного общества.2. Классификация и свойства информацииПрежде всего, информация нам нужна для правильности принятия решения. Рассмотрим качественные признаки информация, т.е. ее свойства.Свойства информации:1. Объективность. Информация является это отражение внешнего мира, которые существует независимо от нашего сознания. Информация представляет собой объективную точку зрения, если она не зависит, от чьего-либо мнения. Причем объективную информацию, к примеру, можно получить с помощью исправных датчиков или измерительных приборов. Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, она уже зависит от мнения данного человека.2. Достоверность. Информация является достоверной, если она отражает истинное положение дел. Причем заметим явный факт, что объективная информация всегда достоверна, но достоверная информация может быть, как объективной, так и субъективной.Достоверная информация помогает принять нам правильное решение.3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решения.Неполная информация может привести к ошибочному выводу или решению. 4. Актуальность (своевременность) информации. Только вовремя полученная информация может принести необходимую пользу. 5. Полезность информации.Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью. Но с точки зрения техники свойство полезности рассматривать бессмысленно, так как задачи машине ставит человек [11].Классифицируют информацию по следующим критериям, представленным в таблице 2.1.Таблица 2.1. Классификация информацииКритерийКлассификацияПо области возникновения- биологическая, отражающая процессы животного и растительного мира;- элементарная, отражающая процессы и явления неодушевленной природы;- социальная, отражающая процессы человеческого общества.По способу передачи и восприятия- аудиальная, передаваемая звуками;- визуальная, передаются видимыми образами и символами;- органолептическая, передаваемая запахами и вкусами;- тактильная, передаваемая ощущениями;- машинная, выдаваемая и воспринимаемую средствами вычислительной техники.Создаваемую и используемую человеком, по общественному назначению- массовая, предназначенная для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.);- личная, предназначенная для конкретного человека;- специальная, предназначенная для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки.В советском энциклопедическом словаре говорится: «Информация — это общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму».В данном определении выделены четыре вида понятия информации:техническая (человек - автомат, автомат - автомат);социальная (человек-человек);генетическая (передача признаков от клетки к клетке, от организма к организму)биологическая (информация в животном и растительном мире).В условиях решения какой-либо проблемы, каждый исследователь выбирает ту или иную классификацию индивидуально.Единицы и способы измерения информацииКак было отмечено выше (в параграфе 1), информация понимается и интерпретируется по-разному. Вследствие данного факта, в настоящее время имеются различные подходы к определению методов измерения информации.Под количество информации понимается некоторая числовая величина, характеризующая актуализируемую информацию по разнообразию, определённости, сложности и др.Для измерения таких величин как масса, время и т.п. применяются определенные эталонный единицы. Сколько раз эталонная единица сможет уложиться в измеряемой величине, таков и будет результат измерения. Из этого следует, что для измерения информация есть своя эталонная единица.За единицу количества информации принимается некоторое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. Такая единица названа бит [5].Следующей по величине единицей измерения количества информации является байт, причем 1 байт = 23 бит = 8 битКратные байту единицы измерения количества информации вводятся следующим образом:1 Кбайт = 210 байт = 1024 байт;1 Мбайт = 2 Кбайт = 1024 Кбайт;1 Гбайт = 210 Мбайт = 1024 Мбайт.В информатике измерению подвергается информация, представленная так называемым дискретным сигналом. При этом выделяются следующие подходы:1.структурный подход измеряет количество информации, путем подсчета простых информационных элементов, составляющих сообщение. 2.статистический подход направлен на считывание вероятности появления событий.3.семантический подход берет во внимание целесообразность и полезность информации. Изучение, с точки зрения влияния знаков на поведение систем отношений между данными знаками и их потребителями составляет основу прагматической теории информации. Для всех далее рассмотренных подходов прежде всего характерно стремление связать понятие прагматической информации с целью, а в некоторых специфических случаях и с целенаправленным поведением. Данная процедура сводится к выдвижению некоторых мер ценности информации.Исходя из выше указанных соображений, А.А. Харкевич предложил связать меру ценности информации с изменением вероятности достижения цели при получении этой информации:I = log (p1/p0) = log p1 – log p0,где р0 и р1 – вероятность достижения цели соответственно до и после получения информации.     А.А. Харкевич одним из первых выделил и подчеркнул фундаментальный характер связи прагматических свойств информации с категорией цели, понимаемой как опережающее отражение, модель будущего результата деятельности.Для измерения информации может применятся так называемый алфавитный подход, позволяющий измерять информационный объем на некотором языке, который в свою очередь может быть формальным и неформальным. При этом под алфавитом понимается набор слов, цифр, скобок, особенность алфавита заключается во включении в него пробелы и пропуски между словами. При данном подходе каждый символ определенного текста имеет вес, при этом информационный вес символа, в большей степени, зависит от мощности алфавита. На компьютере используется двоичный алфавит, в котором символы обозначаются цифрами «0» и «1», поэтому наименьшее число символов в алфавите равно двум.В рамках структурного подхода выделяются следующие меры информации:геометрическая. Данная мера определяет максимальное количество информации в определённых объемах. Например, она используется для определения емкости памяти компьютера; комбинаторная. Суть меры заключается в возможности оценивания информации по средствам различных комбинаций элементов, и в заданном объеме. Например, данная мера может быть использована для оценки информационных возможностей;аддитивная, или мера Хартли [7; с. 74].Мера Р. Хартли.Пусть имеется N некоторое состояние системы S или N опытов с различными, последовательными состояниями системы, причем равновозможными. Если каждое состояние системы закодировать двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшим числом, при котором данная кодировка возможна или мера разнообразия множества состояний системы задаётся формулой Р. Хартли: H = k logа N, где k является коэффициентом пропорциональности ( или масштабирования, в зависимости от выбранной единицы измерения меры), а – основание системы меры.Если данные измерения проводятся в экспоненциальной системе, то формула будет иметь следующий вид: k=1, H=lnN (нат);Если измерение проводятся в двоичной системе, то k=1/ln2, H=log2N (бит);Если в десятичной системе, то k=1/ln10, H=lgN (дит).Приведем пример. Для того, чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую специфическую информацию, необходимо задать один вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на один бит (т.е. I=log2 2). Следовательно, для системы из четырех клеток необходимо задать два вопроса, а информация равна двум битам (т.е. I=log24). Если система имеет ровно n различных состояний, то максимум количество информации равно I=log2 n.Следовательно справедливо утверждение Хартли: «если во множестве X={x1, x2,..., xn} выделить произвольный элемент xiО X, то для того, чтобы найти его, необходимо получить не менее loga n (единиц) информации.»По мнению Хартли выделяется специфический аспект, мера информации должна обязательно носить практическую ценность.Формула Хартли не придерживается семантических и качественных свойств рассматриваемой системы. Качество информации рассматривается в проявлениях системы с помощью N-состояний. Данное качество, бесспорно, является положительным.Но существует и преимущественно отрицательная сторона: формула не учитывает специфичность и различность рассматриваемых N-состояний.Уменьшение (или даже увеличение) Н может свидетельствовать об уменьшении (или увеличении) разнообразия состояний N-системы.Обратное, из формулы Хартли (причем основание логарифма берётся больше 1!), − является верным.Единица, соответствующая числу трит ( HYPERLINK "http://ru.wikipedia.org/wiki/%D0%A2%D1%80%D0%B8%D1%82" \o "Трит" трит), равна log23≈1.585 бита, числу 10 (Хартли) — log210≈3.322 бита. Такая единица как нат (nat), соответствует натуральному логарифму и преимущественно применяется в вычислительной технике.Особое внимание стоит обратить на ниббл (4 битта) или как говорят полубайт, четыре двоичных разряда, которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре. Далее по порядку идет 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.Для измерения больших количеств байтов служат единицы «килобайт» = 1000 байт и «Кбайт» (кибибайт, kibibyte) = 1024 байт. Единицы «мегабайт» = 1000 килобайт = 1000000 байт и «Мбайт» (мебибайт, mebibyte) = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации. Единицы «гигабайт» = 1000 мегабайт = 1000000000 байт и «Гбайт» (гибибайт, gibibyte) = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков. Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4,295 Мбайт. Такой же порядок имеют размер DVD-ROM и стандартных носителей на флеш-памяти. Размеры же жёстких дисков достигают сотен и тысяч гигабайт, или даже уже десятки терабайт, служащих для вычисления больших объемов информации. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла и представляет следующий вид: n I = – е pi log2pi. i=1, где n – число состояний системы; рi – вероятность (или относительная частота) перехода системы в i-ое состояние, причем сумма всех pi равна 1.Если все состояния равновероятны (т.е. рi=1/n), то I=log2n.К. Шеннон, один из первых ученых, доказал теорему о единственности меры количества информации. В ней говорится, что для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.Пример. Время t реакции испытуемого на выбор предмета из имеющихся N-предметов линейно зависит отlog2N:t = 200 + 180log2N (мс)По похожему принципу также изменяется и время передачи информации в живом организме. В частности, один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi – вероятность зажечь лампочку номер i.Отсюда, общая формула выглядит так: n I = – е pi log2pi Ј log2n. i=1Если при выборе i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi = 1), то I = 0.Если через формулу Шеннона fi = –n log2 pi, то получается, что I можно понимать как среднеарифметическое величин fi.Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в сообщении, передающем информацию.Пусть сообщение состоит из n различных символов, mi – количество символов номер i=1, 2,.... n в этом сообщении, а N – длина сообщения в символах. Тогда вероятность появления i-го символа в сообщении равна:pi = mi/N.Число всех различных сообщений длины n будет равно np = N!∫ Х mi!.i=1Информация в одном таком сообщении равна nI=log2 p=ln p / ln 2 = ln(N! ∫ Х mi!)/ln 2.Используя формулу Стирлинга (достаточно точна, например, при N>100) – N!» (N/e)N, а точнее, её следствие – ln N! » N(ln N – 1) получаем (в битах):n nI = (N ln N – е mi lnmi) ∫ ln 2= - (N ∫ ln 2) е pi ln pi.

Список литературы

1. Воройский, Ф.С. Информатика. Энциклопедический словарь-справочник / Ф.С. Воройский. ― М.: ФИЗМАТЛИТ, 2006. — 768 с.
2. Информатика / под ред. Б.В. Соболя. ― Ростов-на-Дону: Феникс, 2007. — 446 с.
3. Информатика / под ред. Г.Н. Хубаева. ― Ростов-на-Дону: МарТ, 2010. — 288 с.
4. Бриллюэн Л. Наука и теория информации. − М.: Физматгиз, 1960. – 392 с.
5. Колин, К. Информационная глобализация общества и гуманитарная революция / К.Колин // Alma Mater. — 2002. — № 8. — С. 32—34.
6. Шеннон К. Работы по теории информации и кибернетике. − М.: ИЛ, 1963. – 830 с.
7. Острейковский, В.А., Полякова, И.В. Информатика. Теория и практика / В.А. Острейковский, И.В. Полякова. — М.: Оникс, 2008. — 608 с.
8. Мазур М. Качественная теория информации. − М.: Мир, 1974. – 240 с.
9. Степанов, А.Н. Информатика / А.Н. Степанов. ― СПб.: Питер, 2006. — 684 с.
10. Стратонович Р.Л. Теория информации. − М.: Сов. радио, 1975. – 424 с.
11. Информатика. Энциклопедический словарь для начинающих. / Под ред. Поспелова Д.А. − М.: Педагогика-Пресс, 1994. – 352 с.
12. Ловцев Д.А. Информационная теория эргасистем. − М.: ВАРВСН, 1998. – 124 с.
Очень похожие работы
Пожалуйста, внимательно изучайте содержание и фрагменты работы. Деньги за приобретённые готовые работы по причине несоответствия данной работы вашим требованиям или её уникальности не возвращаются.
* Категория работы носит оценочный характер в соответствии с качественными и количественными параметрами предоставляемого материала. Данный материал ни целиком, ни любая из его частей не является готовым научным трудом, выпускной квалификационной работой, научным докладом или иной работой, предусмотренной государственной системой научной аттестации или необходимой для прохождения промежуточной или итоговой аттестации. Данный материал представляет собой субъективный результат обработки, структурирования и форматирования собранной его автором информации и предназначен, прежде всего, для использования в качестве источника для самостоятельной подготовки работы указанной тематики.
bmt: 0.00444
© Рефератбанк, 2002 - 2024