Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Магнито-оптические накопители.
Для считывания информации используется эффект Керра, который заключается в изменении направления поляризации лазерного луча, отраженного от намагниченной поверхности. Поскольку в данном случае направление намагничивания перпендикулярно поверхности диска (так называемая вертикальная запись), достигается плотность записи информации в 5 раз и выше, чем в винчестерах - более 19 тыс. дорожек на дюйм. В настоящее время выпускаются оптические магнитонакопители для работы с носителями 3, 5" и 5, 25". Диски помещены в неразборные картриджи, похожие по конструкции на 3, 5" дискеты. Эволюции и типы сетей ЭВМ.
Системы пакетной обработки обычно строились на базе мэйнфрейма, который является мощным и надежным компьютером универсального назначения. Пользователи готови-ии перфокарты, содержащие данные и команды программ, и передавали их в вычислительный центр. Операторы вводили)i и карты в компьютер и на следующий день отдавали пользо-иателям результаты. При этом одна неправильно набитая карта могла привести как минимум к суточной задержке. Для пользователей был бы намного удобней интерактивный режим работы, который подразумевает возможность опера-гивно руководить процессом обработки данных с терминала. I )днако на этом этапе именно пакетный режим являлся самым > Ффективным режимом использования вычислительной мощности, так как он позволял выполнить в единицу времени I Ьльше пользовательских задач, чем любые другие режимы. Во I ипве угла находилась эффективность работы самого дорогого • гройства вычислительной машины, которым являлся процессора, в ущерб эффективности работы использующих его I иециалистов. В начале 1960-х гг. затраты на производство процессоров и пылились и появились новые способы организации вычислитительного процесса, позволяющие учесть интересы Пользователей. Началось развитие интерактивных многотерпильных систем разделения времени. В данных системах на компьютере работали сразу несколько пользователей. Каждый из них получал в распоряжение термина!, который помогал ему производить общение с компьютером. При этом время реакции вычислительной системы было достаточно мало для того, чтобы пользователь не замечал параллельную работу с компьютером других пользователей. Поделив таким образом компьютер, пользователи могли за сравнительно небольшую плату обладать преимуществами компьютеризации. Терминалы, при выходе за пределы вычислительного центра, были рассредоточены по всему предприятию. Несмотря на то что вычислительная мощность оставалась полностью централизованной, многие операции, например ввод и вывод данных* стагш распределенными. Данные многотерминальные централизованные системы внешне стали очень похожи на локачьные вычислительные сети. На самом деле каждый пользователь воспринимал работу за терминалом мейнфрейма приблизительно так же, как сейчас работу за подключенным к сети ПК. Он имел доступ к общим файлам и периферийным устройствам и при этом был убежден в единоличном владении компьютером. Это было вызвано тем, что пользователь мог запустить необходимую ему программу в любой момент и почти сразу же получить результат. Таким образом, многотерминальные системы, работающие в режиме разделения времени, явились первым шагом на пути создания локальных вычислительных сетей. Однако до появления локальных сетей необходимо было еще преодолеть большой путь, так как многотерминальные системы, хотя и имели внешние черты распределенных систем, все еще сохраняли централизованный характер обработки информации, и потребность предприятий в создании локальных сетей к данному моменту времени еще не созрела. Это объяснялось тем, что в одном здании просто нечего было объединять в сеть. Высокая стоимость вычислительной техники не давала возможности предприятиям приобретать несколько компьютеров. В данный период был справедлив так называемый закон Гроша, эмпирически отражающий уровень технологии того времени. По этому закону производительность компьютера была пропорциональна квадрату его стоимости, следовательно, за одну и ту же сумму было выгоднее купить одну мощную машину, чем две менее мощных, так как их суммарная мощность оказывалась намного ниже мощности дорогой машины. Однако потребность в соединении компьютеров, находившихся на большом расстоянии друг от друга, к этому времени вполне назрела. Разработка компьютерных сетей началась с решения более простой задачи — доступа к компьютеру с терминалов, удаленных от него на многие сотни или даже тысячи километров. Терминалы соединялись с компьютерами посредством телефонных сетей через модемы. Такие сети позволяли многочисленным пользователям осуществлять удаленный доступ к разделяемым ресурсам нескольких мощных компьютеров класса суперЭВМ. После этого появились системы, в которых наряду с удаленными соединениями типа терминал-компьютер использовались и удаленные связи типа компьютер-компьютер. Компьютеры смогли обмениваться данными в автоматическом режиме, что и представляет собой базовый механизм любой вычислительной сети. На основе данного механизма в первых сетях была организована служба обмена файлами, синхронизация баз данных, электронной почты и других, которые в настоящее время стали традиционными сетевыми службами. Итак, хронологически первыми были разработаны и применены глобальные вычислительные сети. Именно при построении глобальных сетей были предложены и отработаны почти все базовые идеи и концепции существующих вычислительных сетей/Например многоуровневое построение коммуникационных протоколов, технология коммутации пакетов, маршрутизация пакетов в составных сетях. В 1970-х гг. наблюдался технологический прорыв в сфере производства компьютерных компонентов, что выразилось в появлении БИС. Их небольшая стоимость и огромные функциональные возможности позволили создать мини-компьютеры, которые стали реальными конкурентами мейнфреймов. Закон Гроша перестал действовать, так как десять мини-компьютеров были способны выполнять некоторые задачи намного быстрее одного мейнфрейма, а стоила такая мини-компьютерная система меньше. Небольшие подразделения предприятий теперь могли приобретать для себя компьютеры. Мини-компьютеры были способны выполнять задачи управления технологическим оборудованием, складом и решать другие проблемы, соответствующие уровню подразделения предприятия, т.е. появилась концепция распределения компьютерных ресурсов по предприятию, но при этом все компьютеры одной организации продолжали работать независимо. Со временем потребности пользователей вычислительной киники увеличивались, появлялась необходимость получения возможности обмена данными с другими близко расположенными компьютерами. По этой причине предприятия и организации стали использовать соединение своих мини-компьютеов и разработали программное обеспечение, необходимое для их взаимодействия. В итоге это привело к появлению первых локальных вычислительных сетей. Они еще значительно отличались от современных сетей, в частности в устройстве сопряжения. Изначально для соединения компьютеров друг с другом применялись самые разнообразные нестандартные устройства с собственными способами представления данных на линиях связи, своими типами кабелей и т.п. Такие устройства были способны соединять только те типы компьютеров, для которых были разработаны. Данная ситуация породила большой простор для творчества студентов. Названия многих курсовых и дипломных проектов было посвящено устройству сопряжения. В 1980-х гг. положение дел в локальных сетях начато кардинально меняться. Появились стандартные технологии объединения компьютеров в сеть — Ethernet, Arcnet, TokenRing. Сильный импульс для их развития дали ПК. Данные массовые продукты стали идеальными элементами для построения сетей. Они, с одной стороны, были достаточно мощными и способными работать с сетевым программным обеспечением, а с другой — нуждались в объединении своей вычислительной мощности для решения сложных задач. Персональные компьютеры стали преобладать в локальных сетях, при этом не только как клиентские компьютеры, но и как центры хранения и обработки данных, т.е. сетевых серверов, потеснив при этом с привычных ролей мини-компьютеры и мейнфреймы. Обычные сетевые технологии обратили процесс построения локальной сети из искусства в рутинную работу. Для того чтобы создать сети, достаточно было приобрести сетевые адаптеры соответствующего стандарта, например Ethernet, стандартный кабель, соединить адаптеры и кабель стандартными разъемами и установить на компьютер какую-либо из имеющихся сетевых операционных систем, например NetWare. Теперь сеть начинала работать, и присоединение нового компьютера не приводило к появлению проблем. Соединение происходило естественно, если на нем был установлен сетевой адаптер той же технологии. Локальные сети по сравнению с глобальными внесли много нового в технологии организации работы пользователей. Доступ к разделяемым ресурсам стал намного удобнее, так как пользователь мог просто изучать списки наличествующих ресурсов, а не запоминать их идентификаторы или имена. При соединении с удаленным ресурсом можно было работать с ним при помощи уже известных пользователю по работе с локальными ресурсами команд. Последствием и при этом движущей силой такого прогресса стало появление большого числа непрофессиональных пользователей, которые совершенно не нуждались в изучении специальных (и достаточно сложных) команд для сетевой работы. Возможность использовать все эти удобства разработчики локальных сетей получили при появлении качественных кабельных линий связи, с помощью которых даже сетевые адаптеры первого поколения могли обеспечить скорость передачи данных до 10 Мбит/с. Однако о таких скоростях разработчики глобальных сетей не подозревали, так как им приходилось использовать те каналы связи, которые были в наличии.Это было вызвано тем, что прокладка новых кабельных систем для вычислительных сетей протяженностью в тысячи километров вызвала бы колоссальные капитальные вложения/Доступными на тот период были только телефонные каналы связи, плохо приспособленные для высокоскоростной передачи дискретных данных, — скорость в 1200 бит/с стала для них хорошим достижением. По этой причине экономное использование пропускной способности каналов связи становилось основным критерием эффективности методов передачи данных в глобальных сетях. В таких условиях разные процедуры прозрачного доступа к удаленным ресурсам, стандартные для локальных сетей, для глобальных сетей значительное время оставались непозволительной роскошью. В настоящий момент вычислительные сети непрерывно развиваются, и достаточно быстро. Разделение между локальными и глобальными сетями постоянно уменьшается во многом благодаря появлению высокоскоростных территориальных каналов связи, которые не уступают по качеству кабельным системам локальных сетей. В глобальных сетях образовались службы доступа к ресурсам, такие же удобные и прозрачные, как и службы локальных сетей. Такие примеры в огромном количестве показывает самая популярная глобальная сеть — Интернет. Преобразуются и локальные сети. Соединяющий компьютеры пассивный кабель в них сменили разнообразные типы коммуникационного оборудования — коммутаторы, маршрутизаторы, шлюзы. Из-за использования такого оборудования появилась возможность построения больших корпоративных сетей, которые насчитывают тысячи компьютеров и имеют сложную структуру. Вновь появился интерес к крупным компьютерам. Это было вызвано тем, что после спада эйфории по поводу легкости работы с ПК стало ясно, что системы, которые состоят из сотен серверов, обслуживать сложнее, чем несколько больших компьютеров. Поэтому на новом этапе эволюции мейнфреймы возвращаются в корпоративные вычислительные системы. При этом они являются полноправными сетевыми узлами, поддерживающими Ethernet или TokenRing, а также стек протоколов TCP/IP, которые стали благодаря Интернет сетевым стандартом де-факто. Образовалась еще одна важная тенденция, затрагивающая в равной степени как локальные, так и глобальные сети, В них начала обрабатываться несвойственная ранее вычислительным сетям информация, такая, как голос, видеоизображения, рисунки. Это привело к необходимости внесения изменений в работу протоколов, сетевых ОС и коммуникационного оборудования. Затруднение передачи данной мультимедийной информации по сети связано с ее чувствительностью к задержкам в случае передачи пакетов данных. Задержки чаще всего вызывают искажения такой информации в конечных узлах сети. Так как обычные службы вычислительных сетей, среди которых передача файлов или электронная почта, образуют малочувствительный к задержкам трафик и все элементы сетей изобретались в расчете на него, то появление трафика реального времени стало причиной больших проблем. В настоящий момент эти проблемы решаются различными способами, например с помощью специально рассчитанной на передачу разного типа трафика технологии ATM. Однако, несмотря на большие усилия, предпринимаемые в данном направлении, до приемлемого решения проблемы пока далеко, и в этой области еще много следует предпринять, чтобы достичь слияния технологий не только локальных и глобальных сетей, но и технологий любых информационных сетей — вычислительных, телефонных, телевизионных и т.п. Несмотря на то что сегодня эта идея многим кажется нереальной, специалисты считают, что предпосылки для такого объединения уже существуют. Данные мнения расходятся только в оценке приблизительных сроков такого объединения —называются сроки от 10 до 25 лет. При этом считается, что основой для синтеза послужит технология коммутации пакетов, применяемая сегодня в вычислительных сетях, а не технология коммутации каналов, которая используется в телефонии.
Архитектура сетей ЭВМ.
Общие принципы построения ЭВМ, которые относятся к архитектуре:
1. ^ Принцип программного управления. Он обеспечивает автоматизацию процессов вычислений на ЭВМ. Согласно этому принципу программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности. 2. ^ Принцип однородности памяти (принцип хранимой команды). Программы и данные хранятся в одной и той же памяти. Компьютер не различает, что храниться в данной ячейке памяти – число, текст или команда. Над командами можно выполнять такие же действия, как и над данными. Отсутствие принципиальной разницы между программой и данными дало возможность ЭВМ самой формировать для себя программу в соответствии с результатом вычислений. 3. ^ Принцип адресности. Структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Это позволяет обращаться к произвольной ячейке (адресу) без просмотра предыдущих. Компьютеры, построенные на этих принципах, относят к типу фон-неймановских. На сегодняшний день это подавляющее большинство компьютеров, в том числе и IBM PС – совместимые. Но есть и компьютерные системы с иной архитектурой – например системы для параллельных вычислений. ^ Популярное:
|
Последнее изменение этой страницы: 2017-03-03; Просмотров: 648; Нарушение авторского права страницы