![]() |
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Информация в непрерывных сигналах, дифференциальная энтропияСтр 1 из 7Следующая ⇒
Понятие взаимной информации Энтропия – среднее количество информации на одно сообщение, которое формируется источником.
T – среднее время передачи 1 сообщения
Физический смысл:
Взаимную информацию м. определить: Если воспользоваться теоремой умножения вероятностей для взаимосвязанных сообщений получим: 1. 2.. 3.. 4. 5. Если В=А и учитывая, что Информация в непрерывных сигналах, дифференциальная энтропия
При
Работа систем аналоговой связи: суть состоит в том, что 1) мы интересуемся частью информации в аналоговом сигнале (сигнал подавляется фильтрацией), 2) изменение информации при передаче информации взаимная, а не полная энтропия нас интересует, рассматрив. приращ. энтропии вел-ны не будут
Понятие пропускной способности канала святи 1 Пропускная способность – характеристика канала связи – экономичность информации. Экономия энергии и временных затрат на передачу. 2. Достигаем max С за счет скремблирования, фильтрации, переноса спектра. При этом свойства канала используется наилучшим образом.
Пропускная способность – некий предел к которому стремится скорость передачи. Реальные нагрузки КС< С пропускной способности канала Способ кодирования передачи бит как процесс во времени. Время, тратившееся на передачу одного символа – техническая скорость передачи (Бит/с). Коэффициент передачи = отношению скорости передачи Пропускная способность непрерывного канала связи F-полоса пропускания КС, те диапазон частот.
Пусть
Поскольку шум аддитивный, то
Чем шире полоса частот, тем больше информативных параметров источника можно использовать.Чем больше полоса, тем больше пропускная способность. Cкорость нарастания ограничена, при уменьшении шумов мы не можем сделать их 0, и параметры сигнала мы не можем сделать Параметры кодовых последовательностей СЗР – старший значащий разряд, МЗР – младший значащий разряд
Параметры: - основание кода m (для доичных систем = 2); -знакоместо (каждый разряд со свом номером); -номер разряда; -количество элементов в кодовом слове (n); -число кодовых слов (M, -избыточность;
- расстояние по Хеммингу
Кодовое расстояние – минимальное отличие одной таблицы от другой, Классификация кодов Коды классифицируются по нескольким признакам: 1.Равномерные и неравномерные коды. Равномерные содержат одинаковое количество разрядов во всех кодированных комбинациях, позволяют экономично представлять информацию. Коды с переменной длиной слова называются неравномерными 2.Непрерывныеи блочные коды – Непрерывные коды передаются непрерывно, никаких разделителей нет между кодовыми наборами, для различения начала и конца используют специальные наборы, которые не повторяются, т.е. начало – одно, конец – другое. Блочные коды-слова отделены разделителями. Характеризируются тем, что такие коды имеют начало и конец специально выделенным признаком 3. Примитивные и избыточные коды. Примитивные используют все кодовые наборы. Избыточные коды используют только ряд или часть кодовых наборов. Эффективное кодирование. 1.Эффективное кодирование включает те способы кодирования при которых уменьшается избыточность кода, с учетом статистических характеристик поступающих на вход сообщений, выравнивают статистические характеристики кода, приближая появление элементов кода к равновероятным. 2.ЭК снижает/уменьшает корреляционные связи между кодовыми комбинацими. ЭК устраняет статическую связь между элементами кодов и наборов Требования к кодовым последовательностям, передаваемых телекоммуникационными каналами связи 1.Наименьшая ширина спектра при требуемой скорости рпередачи. 2.Помехоустойчивость кода (Когерентный прием обеспечивает высокую помехоустойчивость, но требует синхронизации) 3.Низкая стоимость реализации 4.Возможность гальваническая развязки между приемом и передачей. 5.Возможность передачи постоянного тока 6.Возможность синхронизации между приемником и передатчиком Критерий Неймана-Пирсона
Допускаются ошибки одного вида, и почти исключается вероятность – другой. Варьируя порогом, можно варьировать вероятностью. Можно зафиксировать значение вероятность для порога какого-то события. Критерий – схема предпочтений. ПРЕОБРАЗОВАНИЕ НЕЛИНЕЙНОСТЬЮ ОБЩЕГО ВИДА СУММЫ ДВУХ ГАРМОНИЧЕСКИХ СИГНАЛОВ: ИНТЕРМОДУЛЯЦИОННЫЕ СОСТАВЛЯЮЩИЕ ТРЕТЬЕГО ПОРЯДКА.
41 ОБРАТНАЯ СТОРОНА Получим в фильтре еще и помеху из-за не линейности. (2 Подавление этих составляющих возможно за счет уменьшения слагаемых нелинейности 3-го порядка и более высоких порядков в описании характеристики НЭ. Выбор усилителя и преобразователя элементов с малыми нелинейностями передаточной хар-ки.
42. преобразование закона распределения случайного сигнала однозначной гладкой не линейностью F(x)-обозначенная функция, 2 формы распределения: - дифференциальный (диапазон Т.к.ф-ция однозначная, можем построить обратную ф-цию
Вероятность того, что х лежит в [x1, x1+
43. преобразование закона распределения случайного сигнала неоднозначной гладкой нелинейностью.
2х~y, x~W(x) F(x)-неоднозначная ф-ция. y~Wy(y)-? 1. Т.е. Если есть ф-ция, связывающая вх и выход, можно по всем бесконечно малым участкам получить преобразование 44. преобразование закона распределения случайного сигнала существенной нелинейностью: пример применения метода.
F(x) – существенно НЛ, x~W(x). y~Wy(y)-?
Для каждого Если НЛ в виде ф-ции насыщения (2-стороннее ограничение) Сигнал поступает на вход НЛ имеет вид кривой, вх.сигнал изменяется на 44 ОБРАТНАЯ СТОРОНА Вероятность попадания в бесконечный интервал: 1. 2. 3. 62.СООТНОШЕНИЕ СИГНАЛ- ПОМЕХА В НЕПРЕРЫВНОМ И ДИСКРЕТНОМ КАНАЛЕ СВЯЗИ. НЕПРЕРЫВНЫЙ КАНАЛ СВЯЗИ
ДИСКРЕТНЫЙ КАНАЛ СВЯЗИ
62. ОБРАТНАЯ СТОРОНА -дискретный канал(действ. в теч-и тактового интервала) Для борьбы с помехами необх. накапливать энергию, с пом. интегрирования. Сущ-т положит.и отрицат.выбросы помехи.К концу интегрир-я положит. компенсируют отрицат. выбросы. Зависимость вероятности ошибочного приема бита от отношения энергии на один передаваемый бит к СПМ помехи
ПОМЕХИ И ШУМЫ ПЕРЕДАТЧИКОВ Передатчики генерируют кроме осн.спектра дополнительные компоненты (высшие гармоники, интермод. составляющие спектра), которые м.б. помехами не только для др. КС, но и для собственной КС. Наиболее существен-ым источником помех явл-ются: нелинейности вых.. каскадов, передатчиков. (для классов работы В, АВ, С); шумы генераторов несущих, построены по схеме синтезатора; комбинационные составляющие в нелинейных звеньях (в модуляторах)[комб.составл-е – сложение, вычитание частот]; интермодуляционные составляющие (в модуляторах) [интермодуляция- взаимодействие компонент 1сигнала 1, 2-7 порядки]. В передатчике создаются обширные области с интермодул-ми и комбинированными составляющими. Их появление приводит к:
Структура сигнала, подаваемого в ЛС: 65. обратная сторона x(t) – пост. от возбудителя, a(t) – несущ.комб, S1(t)-модулир.сигнал, усилив-ся и под-ся в ЛС вых..сигнал:
В полосе частоты сигнала могут находится производные сигнала, они м. попасть в полосу спектра соседних КС. Мертвая зона – окно, в которм могут находиться только помехи. В качестве меры качества работы передатчика в плане интермодуляции берут отношение мощность боковых полос к мощности помех в окрестности несущего колебания («мертвой зоны») Меры по улучшению: - повышение линейности КС (усилители, генераторы д.б. максим-но линейные), использовать линейные и параметрические звенья, оптимизация параметров, использовать генераторы с чистыми синусоидами с минимальными примесями, - Полосная фильтрация входящих и выходящих сигналов от посторонних шумов 64. обратная сторона
4. Соединение ЛС с входящими (выходящими) цепями аппаратуры.
Понятие взаимной информации Энтропия – среднее количество информации на одно сообщение, которое формируется источником.
T – среднее время передачи 1 сообщения
Физический смысл:
Взаимную информацию м. определить: Если воспользоваться теоремой умножения вероятностей для взаимосвязанных сообщений получим: 1. 2.. 3.. 4. 5. Если В=А и учитывая, что Информация в непрерывных сигналах, дифференциальная энтропия
При
Работа систем аналоговой связи: суть состоит в том, что 1) мы интересуемся частью информации в аналоговом сигнале (сигнал подавляется фильтрацией), 2) изменение информации при передаче информации взаимная, а не полная энтропия нас интересует, рассматрив. приращ. энтропии вел-ны не будут
Популярное:
|
Последнее изменение этой страницы: 2016-07-14; Просмотров: 746; Нарушение авторского права страницы