Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Информационные ресурсы и технологии



Информационные ресурсы- отдельные документы и отдельные массивы документов в информационных системах.

Информационная система - организационно упорядоченная совокупность документов, информационных технологий, в том числе с использованием средств вычислительной техники и связи, реализующих информационные процессы.

Информационная технология – совокупность методов сбора, обработки и передачи информации

Процесс информатизации общества - проникновение информационных технологий во все сферы деятельности.

История развития информатики

Середина XV века – книгопечатание

Конец XIXвека – изобретение электричества (телеграф, телефон, радио)

Середина XX века – изобретение ЭВМ

Информа́ тика (ср. нем. Informatik, англ. Information science, фр. Informatique, англ. computer science — компьютерная наука — в США, англ. computing science — вычислительная наука — в Великобритании) — наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования.

Термин информатика возник в 60-х годах во Франции для названия области, занимающейся автоматизированной переработкой информации, как слияние французских слов information и automatique (F. Dreyfus, 1972).

Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект), каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

Информация и кибернетика

Управление – функция организованных систем различной природы, направленная на реализацию их целевых установок и поддержание внутренне присущей им структуры.

Управление и информация – основные понятия кибернетики. Понятие введено Анри Ампером в19в, как искусство управления людьми и обществом.

Н. Винер «Кибернетика или управление и связь в животном и машине» 1948 г.

Кибернетика – наука, изучающая с единых позиций связь и управление в организованных системах любой физической природы.

Основные законы управления:

· Всякое управление есть целенаправленный процесс;

· Всякое управление есть информационный процесс;

· Всякое управление осуществляется в замкнутом контуре.

Определение мехатроника

Современный термин " Мехатроника" (" Mechatronics" ), согласно японским источникам [5], был введен фирмой Yaskawa Electric в 1969 году и зарегистрирован как торговая марка в 1972 году. Это название получено комбинацией слов " МЕХАника" и " ЭлекТРОНИКА". Объединение этих понятий в едином словосочетании означает интеграцию знаний всоответствующих областях науки и техники, которая позволила совершить качественный скачок в создании техники новых поколений и производстве новейших видов систем и оборудования. Аналогичным образом шло развитие электромеханики как науки, использующей достижения электротехники и механики при создании приводных исполнительных систем широкого назначения. Интеграция электромеханики и микроэлектроники привела к появлению комплектных интегрированных мехатронных модулей движения рабочих органов и узлов машин а также создаваемого на их основе оборудования. Именно в этом направлении наиболее активно развивалась мехатроника в нашей стране.

По определению ГОС:

" Мехатpоника - это новая область науки и техники, посвященная созданию и эксплуатации машин и систем с компьютеpным упpавлением движением, котоpая базиpуется на знаниях в области механики, электpоники и микpопpоцессоpной техники, инфоpматики и компьютеpного упpавления движением машин и агpегатов".

 

Информационные технологии в робототехнике и мехатронике

Средства создания электронных документов:

· OpenOffice


· MicrosoftOffice

Системы автоматизированного проектирования САПР:

· AutoCAD

· BricsCAD

· CATIA

· NX

· Solid Edge

· SolidWorks

· TurboCAD

· Rhinoceros 3D

· Pro/ENGINEER

· Компас

Математическое и техническое моделирование

· Matlab

· MathCad

· Ansys

· LabView


Промышленные контроллеры:

· Siemens — SIMATIC S5 и S7;

· Segnetics — Pixel 2511 и SMH 2Gi;

· Omron;

· Mitsubishi — серия Melsec (FX, Q);

· Schneider Electric — Modicon серий Twido, M340, TSX Premium, TSX Quantum;

· GE Fanuc;

· Toshiba — серии V и nV;

· TECON - МФК3000, МФК1500, ТЕКОНИК;

· КОНСТАР - серии К110, К202, К303;

· VIPA — VIPA Програмно совместимые с Siemens S7;

· Rockwell Automation Allen-Bradley Programmable Automation Controllers - ControlLogix, CompactLogix, MicroLogix и др.;

· LS Industrial Systems - XGK, GLOFA;

Производители контроллеров общего назначения:

· Texas Instruments(США)

· Analog Devices(США)

· Atmel Corp.(США)

· MicroChip(США)

· Freescale (бывш. Motorola DSP)(США)

· Infineon Technologies AG

· NEC Electronics Corporation(Япония)

· Renesas (объединение отделений Mitsubishi Electric Corporation и Hitachi)(Япония)

· ZiLOG, Inc.

· ГУП НПЦ «ЭЛВИС» (РФ)

· ГП «НИИ Электронной техники» (РФ)

· STMicroelectronics (ЕС)

· NXP (основана Philips)

· DSP «Stratix» и программируемые в ПЛИС DSP «NIOS» от Altera Corporation(США)

Программирование контроллеров общего назначения:


· ARM-GCC

· AVR-GCC

· AVReAl

· Avr-gdb

· Code:: Blocks

· Eclipse

· GEDA

· GNUARM

· Intel Hex

· KTechLab

· KiCAD

· Kontrollerlab

· Linux

· Makefile

· WinAVR


Среды С++ Лицензия Windows Linux Другие платформы Anjuta GPL Нет Да C++ Builder проприетарная Да Нет Code:: Blocks GPL Да Да Mac OS X Codeforge проприетарная Нет Да Нет Codelite GPL Да Да Mac OS X Dev-C++ GPL Да Нет Eclipse CDT EPL Да Да JVM Geany GPL Да Да GNAT Programming Studio GPL Да Да Solaris KDevelop GPL Нет Да Kuzya GPL Да Да FreeBSD, Mac OS X MonoDevelop GPL Да Да Mac OS X NetBeans C/C++ pack CDDL Да Да JVM Pelles C Freeware Да Нет Qt Creator GPL Да Да Mac OS X Sun Studio проприетарная Нет Да Solaris Rational Software Architect проприетарная Да Да JVM Turbo C++ Explorer Freeware Да Нет Да Turbo C++ Professional проприетарная Да Нет Ultimate++ BSD Да Да Microsoft Visual Studio проприетарная Да Нет Microsoft Visual Studio ExpreFreeware Да Нет wxDev-C++ GPL Да Нет Xcode Freeware Нет Нет Mac OS X Open Watcom Sybase Open Wat Да Да OS/2


 

 


Лекция 2
Количество и качество информации

Уровни изучения сообщений

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику (получателю). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемой сообщением:

Сообщение — форма представления информации в виде совокупности знаков (символов), используемая для передачи.

Сообщение как совокупность знаков с точки зрения семиотики (от греч. semeion — знак, признак) — науки, занимающейся исследованием свойств знаков и знаковых систем, — может изучаться на трех уровнях:

1. синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях;

2. семантическом, где анализируются отношения между знака­ми и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации;

3. прагматическом, где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.

Меры информации

  1. Меры информации синтаксического уровня

Объем информации Va (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательно­стью символов данного алфавита.

В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (bit - binary digit - двоичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных Va = nбит. Например, восьмиразрядный двоичный код 11001011 имеет объем данных Va = 8 бит.

1 кбайт = 1024 байт = 210 байт;

1 Мбайт = 1024 кбайт =220 байт = 1 048 576 байт;

1 Гбайт =1024 Мбайт = 230 байт = 1 073 741 824 байт;

1 Тбайт = 1024 Гбайт =240 байт = 1 099 511 627 776 байт.

Количество информации I (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации.

Под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия H, а количество информации равно:

I = Hapr – Haps, где

Hapr- априорная энтропия о состоянии исследуемой системы или про­цесса;

Haps- апостериорная энтропия.

Апостериори (от лат. a posteriori — из последующего) — проис­ходящее из опыта (испытания, измерения).

Априори (от лат. a priori — из предшествующего) — понятие, ха­рактеризующее знание, предшествующее опыту (испытанию), и независимое от него.

Мера энтропии - H(A) = log N, где N- число возможных состояний источника.

Мера была предложена американским ученым Р. Хартли в 1928 г. Основание логарифма в формуле не имеет принципиального значения и определяет только масштаб или единицу измерения. В зависимости от основания логарифма применяют следующие единицы измерения:

  1. Биты — при этом основание логарифма равно 2: Н(А) = log2 N .
  2. Наты — при этом основание логарифма равно e: Н(А) = ln N .
  3. Диты — при этом основание логарифма равно 10: Н(А) = lg N .

Американский ученый К. Шеннон обобщил понятие меры неопределенности выбора Н на случай, когда Н зависит не только от числа состояний, но и от вероятностей этих состояний. Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного источника информации:

Избыточность алфавита сообщений

D= [Hmax (A)– H(A) ]/[Hmax (A)]


Поделиться:



Последнее изменение этой страницы: 2017-03-14; Просмотров: 445; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.036 с.)
Главная | Случайная страница | Обратная связь