![]() |
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
РАЗДЕЛ 4. Теория информации и копирования
1. Информация, данные, сигналы. Источники информации и ее носители. Количество информации и энтропия. Формулы Хартли и Шеннона. Характеристики процесса передачи информации. Математические модели каналов связи и их классификация. Помехоустойчивость передачи информации. Пропускная способность каналов связи. Теорема Шеннона для каналов без помех и с ними. Под информацией понимают совокупность сведений о каких-либо событиях, процессах, явлениях и т.п., рассматриваемых в аспекте их передачи в пространстве и во времени. Данные - это сведения, которые зафиксированы на каком-либо носителе - бумаге, диске, пленке. Эти сведения должны быть в форме, пригодной для хранения, передачи и обработки. Дальнейшее преобразование данных позволяет получить информацию. Сигнал - материальный носитель информации, есть любой физический процесс, параметры которого отображают сообщение. Сигналы могут быть: электрические, акустические, оптические, электромагнитные. Изменяющийся во времени физический процесс, отражающий передаваемое сообщение называется сигналом. Сигнал есть функция времени. Сообщения передают с помощью сигналов, которые являются носителями информации - объект или среда, используемый для хранения или передачи информации. Основным видом сигналов являются электрические сигналы. В последнее время все большее распространение получают оптические сигналы, например, в волоконно-оптических линиях передачи информации. Источник информации - материальный объект или субъект, способный накапливать, хранить, преобразовывать и выдавать информацию в виде сообщений или сигналов различной физической природы. источники информации: люди, документы, продукция, средства обработки информации, черновики и отходы производства, материалы и технологическое оборудование. Основными информационными характеристиками являются количество информации в сообщениях, избыточность сообщений, энтропия, производительность источника сообщений, скорость передачи информации. характеристикой сообщений является логарифмическая мера количества информации Определение количества информации Пусть сообщение состоит из одного символа. Если вероятности появления всех символов одинаковы и равны P = 1/m, то количество информации, которое переносит символ, можно выразить как Энтропия есть мера неопределенности в поведении источника сообщений. При вероятностном подходе состояние источника информации характеризуется неопределенностью. Неопределенность снижается при приеме сообщения, т.е. получении информации. Поэтому получаемая информация, приходящаяся в среднем на один символ источника сообщений, количественно определяет степень уменьшения неопределенности. Свойства: -Энтропия величина вещественная, ограниченная и неотрицательная. - Энтропия равна нулю, если с вероятностью единица выбирается один и тот же символ. - Энтропия максимальна, если все символы источника появляются независимо и с одинаковой вероятностью: Если символы являются взаимосвязанными (коррелированными друг с другом), то используется понятие условной энтропии Из-за корреляционных связей символов и неравновероятного их появления в реальных сообщениях снижается среднее количество информации, которое переносит один символ. Эти потери информации характеризуются коэффициентом избыточности
Наиболее часто основание логарифма в (1) принимают равным 2. При этом единицей количества информации является бит (binary digit). Производительностью источника сообщений называется среднее количество информации, выдаваемой источником в единицу времени, а именно
Для каналов передачи информации вводят аналогичную характеристику – скорость передачи информации C. Максимальное еѐ значение называется пропускной способностью канала. Для дискретного канала
где V– скорость передачи электрических кодовых сигналов. Популярное:
|
Последнее изменение этой страницы: 2016-04-11; Просмотров: 1086; Нарушение авторского права страницы