Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Тема 1.1. Информация. Сообщение и сигналы. Кодирование и квантование сигналов. Виды носителей сигналов. Спектры сигналов
1 . Предмет изучения дисциплины. Основное содержание дисциплины. Информа́ тика — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность её использования для принятия решений. Информация - сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации. Понятие сообщения Сообщение это совокупность знаков, отображающих ту или иную информацию. Передача сообщений (а, следовательно, и информации) на расстояние осуществляется с помощью какого-либо материального носителя, например, бумаги или магнитной ленты или физического процесса, например, звуковых или электромагнитных волн, тока и т.д. Сообщения могут быть функциями времени, например речь при передаче телефонных разговоров, температура или давление при передаче телеметрических данных, спектакль при передаче по телевидению и т.п. В других случаях сообщение не является функцией времени (например, текст телеграммы, неподвижное изображение и т.д.). Понятие базы данных Ба́ за да́ нных — представленная в объективной форме совокупность самостоятельных материалов (статей, расчётов, нормативных актов, судебных решений и иных подобных материалов), систематизированных таким образом, чтобы эти материалы могли быть найдены и обработаны с помощью электронной вычислительной машины Понятие сигналов. Сигнал это физический процесс, отображающий (несущий) передаваемое сообщение. В качестве сигналов в настоящее время в основном используются электрические и оптические сигналы. В электронике сигналом может быть все - от компьютерных цифровых импульсов и до импульсов, модулированных радиоволнами УКВ-диапазона. Сигнал передаёт (развёртывает) сообщение во времени, то есть всегда является функцией времени. Сигналы формируются путём изменения тех или иных параметров физического носителя в соответствии с передаваемым сообщением. Дискретный или дискретный по уровню (амплитуде) сигнал это сигнал, принимающий по величине (амплитуде) только определённые дискретные значения. Непрерывный или аналоговый сигнал это сигнал, который может принимать любые уровни значений в некотором интервале величин. Дискретный по времени сигнал это сигнал, заданный только в определённые моменты времени. Непрерывный по времени сигнал это сигнал, заданный на всей оси времени. Например, речь является сообщением непрерывным как по уровню, так и по времени, а датчик температуры, выдающий её значения через каждые 5 мин, служит источником сообщений, непрерывных по величине, но дискретных по времени. Процесс квантования сигналов. Квантова́ ние (англ. quantization) — в информатике — разбиение диапазона значений непрерывной или дискретной величины на конечное число интервалов. Существует также векторное квантование — разбиение пространства возможных значений векторной величины на конечное число областей. Простейшим видом квантования является деление целочисленного значения на натуральное число, называемое коэффициентом квантования. Тема 1.2. Информация и энтропия. Количество информации, измерение информации Понятие информации Информация - сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации. Основные подходы к измерению информации Чаще всего применяются два подхода к измерению информации: содержательный или вероятностный (т.е. количество информации зависит от ее содержания). алфавитный(т.е. количество информации зависит от последовательности знаков); Содержательный подход. В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т.д. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией - той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. Неопределенность некоторого события - это количество возможных исходов данного события. Так, например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков. Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной. Алфавитный подход. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования. Алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще. На первый взгляд определения Шеннона и Колмогорова кажутся разными, тем не менее, они хорошо согласуются при выборе единиц измерения. Алфавитный (объемный) подход применяется в технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов.Этот подход основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Множество используемых в тексте символов называется алфавитом. Полное количество символов алфавита называется мощностью алфавита. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи. Единицы измерения информации Бит Единицей измерения количества информации является бит – это наименьшая (элементарная) единица. 1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо. Байт Байт – основная единица измерения количества информации. Байтом называется последовательность из 8 битов. Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт. Производные единицы измерения количества информации 1 байт=8 битов 1 килобайт (Кб)=1024 байта =210 байтов 1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов 1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов 1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210 Понятие энтропии Информацио́ нная энтропи́ я — мера неопределённости или непредсказуемости некоторой системы (в статистической физике или теории информации), в частности неопределённость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения. Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-го порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее. Популярное:
|
Последнее изменение этой страницы: 2017-03-09; Просмотров: 1016; Нарушение авторского права страницы