Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Информационные ресурсы и технологии
Информационные ресурсы- отдельные документы и отдельные массивы документов в информационных системах. Информационная система - организационно упорядоченная совокупность документов, информационных технологий, в том числе с использованием средств вычислительной техники и связи, реализующих информационные процессы. Информационная технология – совокупность методов сбора, обработки и передачи информации Процесс информатизации общества - проникновение информационных технологий во все сферы деятельности. История развития информатики Середина XV века – книгопечатание Конец XIXвека – изобретение электричества (телеграф, телефон, радио) Середина XX века – изобретение ЭВМ Информа́ тика (ср. нем. Informatik, англ. Information science, фр. Informatique, англ. computer science — компьютерная наука — в США, англ. computing science — вычислительная наука — в Великобритании) — наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Термин информатика возник в 60-х годах во Франции для названия области, занимающейся автоматизированной переработкой информации, как слияние французских слов information и automatique (F. Dreyfus, 1972). Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект), каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п. Информация и кибернетика Управление – функция организованных систем различной природы, направленная на реализацию их целевых установок и поддержание внутренне присущей им структуры. Управление и информация – основные понятия кибернетики. Понятие введено Анри Ампером в19в, как искусство управления людьми и обществом. Н. Винер «Кибернетика или управление и связь в животном и машине» 1948 г. Кибернетика – наука, изучающая с единых позиций связь и управление в организованных системах любой физической природы. Основные законы управления: · Всякое управление есть целенаправленный процесс; · Всякое управление есть информационный процесс; · Всякое управление осуществляется в замкнутом контуре. Определение мехатроника Современный термин " Мехатроника" (" Mechatronics" ), согласно японским источникам [5], был введен фирмой Yaskawa Electric в 1969 году и зарегистрирован как торговая марка в 1972 году. Это название получено комбинацией слов " МЕХАника" и " ЭлекТРОНИКА". Объединение этих понятий в едином словосочетании означает интеграцию знаний всоответствующих областях науки и техники, которая позволила совершить качественный скачок в создании техники новых поколений и производстве новейших видов систем и оборудования. Аналогичным образом шло развитие электромеханики как науки, использующей достижения электротехники и механики при создании приводных исполнительных систем широкого назначения. Интеграция электромеханики и микроэлектроники привела к появлению комплектных интегрированных мехатронных модулей движения рабочих органов и узлов машин а также создаваемого на их основе оборудования. Именно в этом направлении наиболее активно развивалась мехатроника в нашей стране. По определению ГОС: " Мехатpоника - это новая область науки и техники, посвященная созданию и эксплуатации машин и систем с компьютеpным упpавлением движением, котоpая базиpуется на знаниях в области механики, электpоники и микpопpоцессоpной техники, инфоpматики и компьютеpного упpавления движением машин и агpегатов".
Информационные технологии в робототехнике и мехатронике Средства создания электронных документов: · OpenOffice · MicrosoftOffice Системы автоматизированного проектирования САПР: · AutoCAD · BricsCAD · CATIA · NX · Solid Edge · SolidWorks · TurboCAD · Rhinoceros 3D · Pro/ENGINEER · Компас Математическое и техническое моделирование · Matlab · MathCad · Ansys · LabView Промышленные контроллеры: · Siemens — SIMATIC S5 и S7; · Segnetics — Pixel 2511 и SMH 2Gi; · Omron; · Mitsubishi — серия Melsec (FX, Q); · Schneider Electric — Modicon серий Twido, M340, TSX Premium, TSX Quantum; · GE Fanuc; · Toshiba — серии V и nV; · TECON - МФК3000, МФК1500, ТЕКОНИК; · КОНСТАР - серии К110, К202, К303; · VIPA — VIPA Програмно совместимые с Siemens S7; · Rockwell Automation Allen-Bradley Programmable Automation Controllers - ControlLogix, CompactLogix, MicroLogix и др.; · LS Industrial Systems - XGK, GLOFA; Производители контроллеров общего назначения: · Texas Instruments(США) · Analog Devices(США) · Atmel Corp.(США) · MicroChip(США) · Freescale (бывш. Motorola DSP)(США) · Infineon Technologies AG · NEC Electronics Corporation(Япония) · Renesas (объединение отделений Mitsubishi Electric Corporation и Hitachi)(Япония) · ZiLOG, Inc. · ГУП НПЦ «ЭЛВИС» (РФ) · ГП «НИИ Электронной техники» (РФ) · STMicroelectronics (ЕС) · NXP (основана Philips) · DSP «Stratix» и программируемые в ПЛИС DSP «NIOS» от Altera Corporation(США) Программирование контроллеров общего назначения: · ARM-GCC · AVR-GCC · AVReAl · Avr-gdb · Code:: Blocks · Eclipse · GEDA · GNUARM · Intel Hex · KTechLab · KiCAD · Kontrollerlab · Linux · Makefile · WinAVR
Лекция 2 Уровни изучения сообщений При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику (получателю). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемой сообщением: Сообщение — форма представления информации в виде совокупности знаков (символов), используемая для передачи. Сообщение как совокупность знаков с точки зрения семиотики (от греч. semeion — знак, признак) — науки, занимающейся исследованием свойств знаков и знаковых систем, — может изучаться на трех уровнях: 1. синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях; 2. семантическом, где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации; 3. прагматическом, где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю. Меры информации
Объем информации Va (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (bit - binary digit - двоичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных Va = nбит. Например, восьмиразрядный двоичный код 11001011 имеет объем данных Va = 8 бит. 1 кбайт = 1024 байт = 210 байт; 1 Мбайт = 1024 кбайт =220 байт = 1 048 576 байт; 1 Гбайт =1024 Мбайт = 230 байт = 1 073 741 824 байт; 1 Тбайт = 1024 Гбайт =240 байт = 1 099 511 627 776 байт. Количество информации I (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации. Под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия H, а количество информации равно: I = Hapr – Haps, где Hapr- априорная энтропия о состоянии исследуемой системы или процесса; Haps- апостериорная энтропия. Апостериори (от лат. a posteriori — из последующего) — происходящее из опыта (испытания, измерения). Априори (от лат. a priori — из предшествующего) — понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него. Мера энтропии - H(A) = log N, где N- число возможных состояний источника. Мера была предложена американским ученым Р. Хартли в 1928 г. Основание логарифма в формуле не имеет принципиального значения и определяет только масштаб или единицу измерения. В зависимости от основания логарифма применяют следующие единицы измерения:
Американский ученый К. Шеннон обобщил понятие меры неопределенности выбора Н на случай, когда Н зависит не только от числа состояний, но и от вероятностей этих состояний. Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного источника информации: Избыточность алфавита сообщений D= [Hmax (A)– H(A) ]/[Hmax (A)] |
Последнее изменение этой страницы: 2017-03-14; Просмотров: 445; Нарушение авторского права страницы