Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
История развития распределенных вычислений
Проблема выбора между централизованной и распределенной моделями предоставления вычислительных ресурсов является одной из ключевых проблем организации вычислительных систем. Примером этого может являться статья «Централизованные и децентрализованные вычислительные системы: организационные соображения и варианты управления», опубликованная еще 1983 г. [43]. С того момента, как появилась возможность соединять компьютеры между собой, многие группы исследователей занялись изучением возможностей, предоставляемых системами распределенных вычислений, создавая множество библиотек и промежуточного программного обеспечения. Разработанное ППО предназначалось для того, чтобы обеспечить организацию и управление гео- графически-распределенными ресурсами таким образом, чтобы они представ- ляли собой единую виртуальную параллельную вычислительную машину. До середины 70-х годов прошлого века по причине высокой стоимости те- лекоммуникационного оборудования и относительно слабой мощности вычис- лительных систем доминировала централизованная модель. В конце 70-х годов появление систем разделения времени и удаленных терминалов, явилось предпосылкой возникновения клиент-серверной архитектуры, обеспечивающей предоставление ресурсов мейнфреймов (больших вычислительных машин) конечным пользователям посредством удаленного соединения. Дальнейшее развитие телекоммуникационных систем и появление персональных компьютеров дало толчок развитию клиент-серверной парадигмы обработки данных. На по- следующих этапах произошло уточнение и переосмысление задачи распреде- ленных вычислений. В 2000-м году Ян Фостер определил задачу распределенных вычислительных систем как «гибкое, безопасное, координированное распределение ре- сурсов среди динамических наборов пользователей, организаций и ресурсов» [31]. Он предложил называть такие распределенные вычислительные системы термином грид. Коммерческие разработчики, развивая идею грид, в 2007-2008 годах представили концепцию «облачных вычислений», в основе ко торой было предоставление высокомасштабируемых виртуальных вычисли- тельных ресурсов конечному пользователю через интернет в виде услуг. На текущий момент, использование распределенных вычислений в виде технологий грид и облачных вычислений набирает обороты. Они применяются для решения различных задач, их использование становится все проще. Распре- деленные вычисления становятся неотъемлемой частью научных и коммерческих высокопроизводительных вычислений.
1 Ян Фостер – директор института вычислений, старший научный сотрудник Арагонской национальной лаборатории (США). Является автором множества научных работ, посвященных параллельным и распределен- ным вычислениям. Руководил разработкой нескольких международных распределенных вычислительных си- стем. Автор концепции грид.
Первое поколение систем распределенных вычислений Первые проекты по распределенным вычислениям, появившиеся в начале 1990-х годов, основывались на объединении вычислительных возможностей суперкомпьютеров. Основной целью данных проектов было предоставление вычислительных ресурсов для определенного ряда высокопроизводительных приложений. В качестве типичных проектов того времени можно рассмотреть проекты FAFNER [34] и I-WAY [61]. Эти проекты стали базовыми, для всей от- расли распределенных вычислений в дальнейшем. На них основывались первые попытки стандартизации распределенных вычислений в гетерогенных вычис- лительных средах. Проект FAFNER Проект FAFNER был создан для решения задачи разложения больших чисел на основе мощностей географически-распределенных вычислительных систем. Нахождение простых множителей больших чисел является позволяет расшифровать данные, зашифрованные на основе алгоритма RSA. Для шифрования секретной информации широко используется метод ко- дирования, основанный на публичном ключе RSA (аббревиатура из первых букв фамилий разработчиков данного метода: Rivest, Shamir и Adleman). Метод работы данного ключа основан на том, что разложение на множители больших чисел (сто и более знаков) – чрезвычайно сложная вычислительная задача. В марте 1991 корпорация RSA Data Security основала конкурс по поиску и реали- зации методов разложения больших чисел на множители. Это состязание обес- печило создание крупнейшей библиотеки по методикам поиска простых множителей от крупнейших ученых со всего земного шара. Все алгоритмы поиска простых множителей, известные на сегодняшний день, требуют чрезвычайно большого количества вычислений (поэтому этот метод и используется для шифрования). Но особенность параллельной реализации этих алгоритмов состоит в том, что процессы поиска делителей вычислительно независимы, и не требуют обмена информации во время расчета. Первые попытки реализовать подобный алгоритм на распределенных вычисли- тельных системах основывались на обмене электронными письмами. В 1995 г. консорциумом организаций в области информационных техноло- гий был запущен проект FAFNER – Factoring via Network-Enabled Recursion (Сетевое разложение на множители посредством рекурсии) по решению задачи разложения больших чисел посредством Веб-серверов. Можно выделить следующие особенности, отличавшие этот проект от многих других [34]: реализация NFS – Network File System (Сетевая Файловая Система) позво- ляла даже малым рабочим станциям (с 4 Мб оперативной памяти) выпол- нять полезную работу, рассчитывая свой маленький фрагмент задачи; проект FAFNER поддерживал анонимную регистрацию участников. Поль- зователи могли поделиться своими вычислительными ресурсами без бояз- ни раскрытия своей личной информации; консорциум сайтов, представлявших костяк вычислительной системы, формировали иерархическую структуру веб-серверов, что уменьшало воз- можность возникновения «узкого места» в вычислительной системе. Данная система доказала свою надежность и качественность, заняв первое место по производительности в конкурсе, проводимом в рамках конференции Supercomputing’95. Проект I-WAY I-WAY – Information Wide Area Year (Год Информации Глобальных Сетей) – экспериментальная высокопроизводительная сеть, которая объединила мно- жество высокопроизводительных компьютеров и передовые средства визуали- зации в США. Она была спроектирована в начале 1995, с целью объединения высокоскоростных сетей, существующих на тот момент. Данные и компьютер- ные ресурсы были распределены по 17-и локациям в США и объединены 10-ю сетями, с различной пропускной способностью, различными протоколами со- единения и с использованием различных сетевых технологий для их построе- ния [23]. В рамках проекта, была построена аппаратная инфраструктура, посред- ством которой осуществлялся доступ к ресурсам сети I-WAY. Она состояла из базовых рабочих станций под управлением операционной системы UNIX, на которые было установлено специальное ППО (сервер I-POP). Система I-POP брала на себя функции шлюза к ресурсам сети I-WAY. Каждый такой сервер поддерживал стандартные процедуры аутентификации, резервирования ресур- сов создания процессов и коммуникации. Также, в рамках данного проекта был разработан планировщик ресурсов, известный как «Брокер Вычислительных Ресурсов» (CRB – Computing Resources Broker). Он обеспечивал выполнения функций управления очередями задач, распределения заданий между компьютерами и слежения за ходом реше- ния. Для поддержки пользовательских приложений была адаптирована библио- тека передачи данных Nexus. В нее были включены механизмы, поддерживаю- щие автоматическое конфигурирование работы пользовательского приложения, в зависимости от методов передачи данных, базовой операционной системы и т. п. Проект I-WAY использовался для решения следующих задач [23]: суперкомпьютерные вычисления; доступ к удаленным ресурсам; задачи виртуальной реальности. Популярное:
|
Последнее изменение этой страницы: 2016-05-28; Просмотров: 1415; Нарушение авторского права страницы