Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Вопрос. Информатика как наука и вид практической деятельности.Стр 1 из 3Следующая ⇒
Вопрос. Информатика как наука и вид практической деятельности. l Методология информатики как науки: объект, предмет, задачи, методы исследования l Структура теоретического ядра информатики (5 разделов) l Определение информатики как науки Методология информатики.
Методология науки даёт характеристику компонентов научного исследования: · Объекта · Предмета · Задач исследования · Совокупность исследоват. средств
Объект изучения: Информационные процессы (ИП) в природе и обществе.
Предмет изучения: · Основные свойства и закономерности ИП · Особенности их проявления в информационных средах различной природы · Методы и средства их автоматизации
Основные задачи информатики: · Разработка формализованных информационных моделям ИП с помощью математики как языка всех наук · Разработка техники и технологий для обработки информации для различных человеческой деятельности.
Основные методы научного исследования информатики: · Системно-информационный анализ · Информационное моделирование · Вычислительный эксперимент
1. Структура теоретического «ядра» современной информатики
ü Теоретическая информатика занимается разработкой математических моделей информационных процессов: · Теория информации · Теория кодирования · Теория алгоритмов · Теория автоматов
Составляющие «теоретического ядра» информатики
ü Вычислительная техника – разработка общих принципов построения вычислительных систем. ü Программирование - изучение способов составления проверки и улучшения программ для ЭВМ ü Информационные системы – разработка систем для автоматизации ИП с использованием вычислительной техники и компьютерных сетей ü Искусственный интеллект – разработка компьютерных программ способных выполнять интеллектуальные действия человека
2. Информатика как вид практической деятельности.
Формализованные модели информационных процессов созданные в рамках теоретических исследований, используют при проектировании прикладных решений для различных сфер человеческой деятельности.
3. Место информатики в системе наук.
Информатика – фундаментальная естественная наука, изучающая общие свойства информации, процессы методы и средства ее обработки (сбор, хранение, перемещение, выдача) в системах различной природы.
Вопрос 2. Основные понятия информатики: информация, информационный процесс. l Философское определение информации (разнообразие, отражение) l Свойства информации (запоминаемость, передаваемость и т.д.) l Понятие информационного процесса l Базовые информационные процессы (в чем их суть)
Основные понятия информатики.
1. Информация – фундаментальная философская категория, несводимая к категориям материи и энергии.
Философское определение информации
Информация – это отраженное разнообразие заключенное в структуре объекта (1973 г.)
Информация и разнообразие.
Информация появляется тогда, когда хотя бы два «элемента» в совокупности различаются.
Информация и отражение. Отражение – это свойства материальных систем в результате взаимодействия воспроизводить и сохранять в своей структуре свойства и структуру другой системы. Воспроизведение в своей структуре структуры и свойств другой системы (т.е ее разнообразия) и есть передача информации.
2. Свойства информации: -запоминаемость - способность информации к тому, что она может быть отражена («запомнена») другой системой; передаваемость - способность информации к копированию, т.е. к тому, что она может быть «запомнена» другой системой и при этом останется тождественной самой себе; преобразуемость - означает, что информация может менять форму своего существования; воспроизводимость - неиссякаемость и неистощимость информации, (при передаче информации ее количество у источника информации не уменьшается) стираемость - характеризует возможность уменьшения количества информации до нуля в процессе ее преобразования
3. Информационный процесс – это процесс преобразования информации, в результате которого меняется ее форма, смысл или ценность.
Базовые информационные процессы(их суть) · Восприятие · Передача · Хранение · обработка
Вопрос. Измерение информации: Вероятностный подход l зависимость количества информации в сообщении от вероятности получения сообщения (формула, пример задачи) l формула Хартли (в каких случаях используется, пример задачи) l определение бита с точки зрения вероятностного подхода l среднее количество информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона (пример задачи) l Связь информации и энтропии (формула, пример) 1. Зависимость кол-ва информации в сообщении от вероятности получения этого сообщения.
В математической теории информации исходят из того, что в некотором сообщение Xt количество информации L (xt) зависит не от её конкретного содержания, степени важности и т.д., а от вероятности получения этого сообщения P (xt). Вероятность события А равно относительно числа исходов, благоприятствующих событию А(m) к числу всех равновозможных исходов. Сумма вероятности всех возможных исходов опыта равна 1.
Чем меньше вероятность получить сообщение, тем больше информации содержится в нем. Если все сообщения от данного источника поступают с одинаковой вероятностью, то вероятность одного из N равновероятных событий, а количество информации в этом сообщении определяется по формуле: Формула Хартли. (1928г). Зависимость количества информации в сообщении от количества равновероятных сообщения.
2. Формула Хартли
I = - log(1/N) = log N
Если все сообщения от данного источника поступают с одинаковой вероятностью, то вероятность одного из N равновероятных сообщений,
P = 1/N
А кол-во информации в этом сообщении определяется по формуле Хартли.
3. Бит – это кол-во информации получаемое при получении одного из двух равновероятных сообщений.
N=2
4. Среднее кол-во информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона.
Энтропия – численная мера неопределенности наших знаний о состоянии некоторой системы (источника сообщений).
В теории информатики чаще всего необходимо знать не кол-во информации l(xi), содержащееся в отдельном сообщении, а среднее кол-во информации приходящееся на одно из множества передаваемых сообщений создаваемых системой (источником сообщения) – то есть энтропию системы. Формула Шеннона -
N – количество разных сообщений, которые может генерировать система. Pi – вероятность появления некоторого сообщения.
5. Связь информации и энтропии ( формула, примеры)
Количество информации (I), полученное из сообщения о состоянии системы, равно разности неопределенностей наших знаний о состоянии системы, изменившихся «до» и «после» получения сообщения. ( ) Если сообщение полностью снимает неопределенность относительно состояния системы, то количество информации в этом сообщении численно равно энтропии системы до получения сообщения. Пример. Сколько информации содержится в сообщении о том, что на игральной кости выпало четное число очков? Решение.
Вопрос. Представление текста в памяти ЭВМ l кодировочные таблицы ASCII и Unicode l структура таблиц ASCII и Unicode l информационный вес символа в ASCII и Unicode Ввод символов с клавиатуры Кодировочные таблицы ASCII и Unicode ASCII (американский стандартный код информационного обмена) 1960г Стандартная часть от 00 до 7F, - от 00 до 1F – управляющие коды - от 20 (пробел) до 7F – изображаемые символы: английский алфавит, знаки препинания, цифры, арифметические операции Расширенная часть от 80 до FF Символы национальных алфавитов, символы псевдографики, некоторые научные символы. Unicode (1993г) Снимает ограничение однобайтовых таблиц – невозможность одновременного использования нескольких языков В Unicode на кодирование символов отводится 32 бит (сколько символов может быть закодировано в этой таблице? ) n 0-127совпадают с ASCII, n далее алфавиты современных языков (до 65536) В современных компьютерах и операционных системах используется укороченная, 16-битовая версия Unicode. Информационный вес символа В Интернет наиболее популярной стала кодировка UTF-8 из семейства Unicode, с переменным количеством байт/символ, от 1 до 6 (реально используется до 4) Символы 00 - 7F кодируются в UTF-8 при помощи одного байта (коды совпадают с ASCII). Русские символы начинаются с кода 0400. Поэтому все русские буквы кодируются при помощи 2 байт / символ. Первая цифра кода находится в столбце, вторая - в строке Ввод символов с клавиатуры 1. Во время нажатия клавиши замыкаются контакты и формируется скан-код, который передается на контроллер клавиатуры 2. Контроллер ставит в соответствие скан-код и код из установленной кодировочной таблицы (например ASCII) с помощью специальной программы. 3. Нажатие буквенно-цифровой клавиши посылает сигнал на видеокарту, из Постоянного запоминающегося устройства(винчестер) которой выбирается под знакогенерации для отображения символа на экране. 6 вопрос. Ввод, оформление и структурирование текста -Правила компьютерного набора текста -Виды программ для набора текста -Шрифт, гарнитура, стиль, виды шрифтов -Структурирование текста Структурирование текста Единицей пространственного размещения служит абзац. Параметры абзаца: 1. Выравнивание (выключка) — правило расположения букв в строке абзаца (по левому краю, центральное, по правому краю и по ширине полосы набора). 2. Отступы от краев полосы набора. 3. Абзацный отступ (красная строка) — положение первой строки абзаца. 4. Интервалы. Различают межстрочное расстояние шрифта (одинарный, полуторный, двойной интервал) — и промежутки до и после абзаца. Вопрос. Сжатие информации l обратимые методы сжатия информации: метод упаковки, метод Хаффмана, метод RLE (пример сжатия для метода упаковки или RLE) l Сжатие с регулируемой потерей информации (привести названия методов и их идеи) Сжатие информации Обратимые методы сжатия. Метод упаковки Суть: если в сжимаемом массиве данных присутствует только небольшая часть используемого алфавита, можно уменьшить количество бит, отводимых для кодирования символов. Метод Хаффмана Суть: часто встречающиеся символы кодируются короткими кодами, а редко встречающиеся — длинными. Идея сжатия Во входной последовательности: все повторяющиеся цепочки байтов заменяются на фрагменты {управляющий байт, повторяющийся байт}. Управляющий байт имеет значение 128 + количество повторений (т.о. старший бит = 1)
Все неповторяющиеся цепочки байтов заменяются на фрагменты {управляющий байт, цепочка неповторяющихся байтов}. Управляющий байт имеет значение 0 + количество неповторяющихся байтов (т.о. старший бит = 0) Алгоритм рассчитан на деловую графику — изображения с большими областями повторяющегося цвета. Размер файла при RLE кодировании может увеличиться, например, если применять его к обработанным цветным фотографиям С регулируемой потерей Алгоритм JPEG Алгоритму передается битовая карта изображения и степень сжатия 1. Цвета пикселей переводятся из RGB-представления в YCbCr-представление (в цветовой модели YCbCr цвет представляется компонентами «яркость» Y, «цветоразность зеленый-красный» Сr и «цветоразность зеленый-синий» Сb). 2. В каждой второй строке и каждом втором столбце матрицы пикселей информация о цветовых компонентах Сb и Сr просто удаляется (! ), что мгновенно уменьшает объем данных вдвое. 3. Оставшиеся данные подвергаются процедуре «сглаживания» 4. Затем данные сжимаются алгоритмом Хаффмана. Алгоритм MP3 Алгоритму передается звуковой фрагмент и желаемый битрейт— количество бит для кодирования одной секунды звука. 1. Звуковой фрагмент разбивается на небольшие участки — фреймы, в каждом из них звук разлагается на составляющие звуковые колебания 2. Производится психоакустическая обработка — удаление маловажной для человеческого восприятия звуковой информации. Желаемый битрейт определяет, какие эффекты будут учитываться при сжатии, а также количество удаляемой информации. 3. На последнем этапе оставшиеся данные сжимаются алгоритмом Хаффмана. Идеи алгоритмов MPEG 1. Метод «опорного кадра» — сохраняют не целиком кадры, а только их изменения. Закодировав первый кадр сцены и отличия остальных ее кадров от первого, можно получить очень большую степень сжатия. 2. Быстро сменяемые участки изображения кодируют с более низким качеством, чем статичные участки, — человеческий глаз не успевает рассмотреть их детально. 3. Хранят в одном файле несколько потоков данных (фильм, логотип, субтитры, и т. д.) Потоки накладываются друг на друга при воспроизведении. Такой способ позволяет, например, хранить субтитры в виде текста вместо изображений букв, логотип сохранить всего один раз, а не в каждом кадре, и т. п. Вопрос. Алгебра логики l что такое высказывание, логическое выражение l основные логические операции и их таблицы истинности l приоритет выполенния логических операций l что такое равносильные выражения l способы доказания равносильности логических выражений (таблица истинности, законы логики) Алгебра логики 1.Высказывание — термин математической логики, обозначающий формализованную структурированную запись мысли с помощью буквенных символов и логических связок, рассматриваемую с точки зрения истинностных значений. Это утверждение, для которого оценивается логическое значение: ложь или истина Логическое выражение в программировании — конструкция языка программирования, результатом вычисления которой является «истина» или «ложь». Высказываниеназывается простым если никакая его часть не является высказыванием Составные высказывания строятся из простых с помощью логических связок (операций) «и», «или», «не», «если … то», «тогда и только тогда» и др. 2.Инверсия («неверно, что», логическое отрицание) Если высказывание A истинно, то «не А» ложно, и наоборот.
Конъюнкция («и», логическое умножение) Высказывание « A и B» истинно тогда и только тогда, когда А и B истинны одновременно. Дизъюнкция («или», логическое сложение) Высказывание « A или B» истинно тогда, когда истинно А или B, или оба вместе.
Разделительная дизъюнкция («либо», “исключающее или” сложение по модулю 2) Высказывание « A Å B» истинно тогда, когда истинно А или B, но не оба одновременно (то есть A не равно B ). Импликация («если, то», логическое следование).Высказывание A → B ложно тогда и только тогда, когда условие (посылка) — истинно, а следствие (заключение) — ложно.
Эквивалентность («тогда, и только тогда», логическое равенство) Высказывание « A « B» истинно тогда и только тогда, когда А и B равны (одновременно истинны или ложны).
3.Порядок вычисления выражения можно определить с помощью дерева. Вычисление начинается с листьев, корень самая последняя операция. 4. Если значения выражений А и В совпадают на всех возможных наборах значений входящих в их переменных, то такие выражения называют равносильными (А = В). Любое выражение можно преобразовать к равносильному ему, в котором используются только базисные операции *, + и инверсия с помощью законов алгебры логики 5. Свойство констант Законы идемпотентности
Приоритет выполнения: 1. Действия в скобках 2. инверсия 3. конъюнкция 4. дизъюнкция 5. импликация и эквивалентность Цикл с предусловием «Пока». Предписывает выполнять цикл до тех пор, пока выполняется условие, записано после слова «пока». Число повторения операторов тела цикла заранее неизвестное. Выход из цикла выполняется в случае не выполнения заданного условия. Цикл с постусловием «пока». Выполняет серию команд до тех пор, пока условие станет истинным. Число повторений операторов тела цикла заранее неизвестно. Цикл с параметром «Для». Предписывает выполнять тело цикла для всех значений некоторой переменной в заданном диапазоне. Цикл с параметром используют, когда число повторений заранее известно. вопрос. Информатика как наука и вид практической деятельности. l Методология информатики как науки: объект, предмет, задачи, методы исследования l Структура теоретического ядра информатики (5 разделов) l Определение информатики как науки Методология информатики.
Методология науки даёт характеристику компонентов научного исследования: · Объекта · Предмета · Задач исследования · Совокупность исследоват. средств
Объект изучения: Информационные процессы (ИП) в природе и обществе.
Предмет изучения: · Основные свойства и закономерности ИП · Особенности их проявления в информационных средах различной природы · Методы и средства их автоматизации
Основные задачи информатики: · Разработка формализованных информационных моделям ИП с помощью математики как языка всех наук · Разработка техники и технологий для обработки информации для различных человеческой деятельности.
Основные методы научного исследования информатики: · Системно-информационный анализ · Информационное моделирование · Вычислительный эксперимент
1. Структура теоретического «ядра» современной информатики
ü Теоретическая информатика занимается разработкой математических моделей информационных процессов: · Теория информации · Теория кодирования · Теория алгоритмов · Теория автоматов
Составляющие «теоретического ядра» информатики
ü Вычислительная техника – разработка общих принципов построения вычислительных систем. ü Программирование - изучение способов составления проверки и улучшения программ для ЭВМ ü Информационные системы – разработка систем для автоматизации ИП с использованием вычислительной техники и компьютерных сетей ü Искусственный интеллект – разработка компьютерных программ способных выполнять интеллектуальные действия человека
2. Информатика как вид практической деятельности.
Формализованные модели информационных процессов созданные в рамках теоретических исследований, используют при проектировании прикладных решений для различных сфер человеческой деятельности.
3. Место информатики в системе наук.
Информатика – фундаментальная естественная наука, изучающая общие свойства информации, процессы методы и средства ее обработки (сбор, хранение, перемещение, выдача) в системах различной природы.
Вопрос 2. Основные понятия информатики: информация, информационный процесс. l Философское определение информации (разнообразие, отражение) l Свойства информации (запоминаемость, передаваемость и т.д.) l Понятие информационного процесса l Базовые информационные процессы (в чем их суть)
Основные понятия информатики.
1. Информация – фундаментальная философская категория, несводимая к категориям материи и энергии.
Философское определение информации
Информация – это отраженное разнообразие заключенное в структуре объекта (1973 г.)
Информация и разнообразие.
Информация появляется тогда, когда хотя бы два «элемента» в совокупности различаются.
Информация и отражение. Отражение – это свойства материальных систем в результате взаимодействия воспроизводить и сохранять в своей структуре свойства и структуру другой системы. Воспроизведение в своей структуре структуры и свойств другой системы (т.е ее разнообразия) и есть передача информации.
2. Свойства информации: -запоминаемость - способность информации к тому, что она может быть отражена («запомнена») другой системой; передаваемость - способность информации к копированию, т.е. к тому, что она может быть «запомнена» другой системой и при этом останется тождественной самой себе; преобразуемость - означает, что информация может менять форму своего существования; воспроизводимость - неиссякаемость и неистощимость информации, (при передаче информации ее количество у источника информации не уменьшается) стираемость - характеризует возможность уменьшения количества информации до нуля в процессе ее преобразования
3. Информационный процесс – это процесс преобразования информации, в результате которого меняется ее форма, смысл или ценность.
Базовые информационные процессы(их суть) · Восприятие · Передача · Хранение · обработка
|
Последнее изменение этой страницы: 2017-03-14; Просмотров: 1427; Нарушение авторского права страницы