Серверные кластеры

Автор работы: Пользователь скрыл имя, 11 Мая 2013 в 12:15, курсовая работа

Краткое описание

В данной курсовой работе рассматриваются общие данные об одном из молодом и динамично развивающимся направлений в компьютерной индустрии - Серверные Кластеры. Получающие всё большее и большее распространение в силу многочисленных положительных характеристик такой системы, таких как:
1)Надёжность;
2)Быстродействие;
3)Дешевизна, относительно суперкомпьютеров, при незначительном отставании от большинства "супермашин";

Содержание

Введение…………………………………………………………………………...3
1. История развития…………………………………………………………….....4
2. Общие сведения………………………………………………………………...5
3. Типичные задачи кластерных систем…………………………………………5
4. Архитектура кластерных систем………………………………………………7
5. Классификация кластерных систем………………………………………….10
6. Типы кластерных систем……………………………………………………..12
7. Высокопроизводительные кластеры...………………………………………16
Заключение………………………………………………………………………20

Вложенные файлы: 1 файл

Отчет.docx

— 47.31 Кб (Скачать файл)

 

5. Классификация кластерных систем

 

Кластерные системы могут  использовать самые разные платформы  и типы интерконнектов л, как правило, классифицируются не по набору комплектующих, а по областям применения. Выделяют четыре типа кластерных систем: вычислительные кластеры, кластеры баз данных, отказоустойчивые кластеры и кластеры для распределения  загрузки. Самая многочисленная группа - вычислительные кластеры. Она может  быть разбита на подгруппы; правда, классификации внутри этой группы подлежат уже не собственно вычислительные машины, а готовые программно-аппаратные кластерные решения. Такие системы "под ключ" имеют предустановленное  прикладное ПО, необходимое заказчику  для решения его задач. Решения, оптимизированные для разных приложений, различаются подбором компонентов, обеспечивающим наиболее производительную работу именно этих приложений при  наилучшем соотношении цена/качество.  
Основные типы готовых решений в мировой практике: 

-  промышленные кластеры для инженерных задач;

-  кластеры для нефте- и газодобывающей промышленности;

- кластеры для исследований в области "наук о жизни", или life sciences (поиск новых лекарств, генетика, молекулярное моделирование, биоинформатика);

- кластеры для стратегических исследований (исследования погоды и климата, ядерная физика и физика частиц, космические исследования, оборонные программы);

- кластеры для индустрии развлечений (компьютерная графика и спецэффекты, компьютерные онлайновые игры);

-  грид-решения*;

- кластеры для высокопроизводительных вычислений в различных областях науки и образования.

Кластеры баз данных появились  недавно. Эти системы работают с  параллельными версиями баз данных и используются в крупных организациях для работы CRM-и ERP-систем, а также  трапзакционных баз данных. Сегодня эти системы - серьезный конкурент традиционным серверам

с общей памятью благодаря лучшему соотношению цена/производительность, масштабируемости и отказоустойчивости.

Отказоустойчивые кластеры строят для того, чтобы наилучшим  образом обеспечить надежность работы критически важных приложений. Работа приложения дублируется на разных узлах, и в случае ошибки на одном из них приложение продолжает работать или автоматически перезапускается  на другом. Такие кластеры не бывают большими, и пользователи часто строят их сами. Кластерные технологии также  используются для распределения  большого потока запросов по многим серверам. Такие решения часто применяются  для поддержки Web-узлов с динамическим содержимым, постоянно обращающихся к базам данных, например, поисковых  систем. В зависимости от размеров сервиса кластеры распределения  загрузки могут иметь достаточно большое количество узлов. 

- *Грид (GRID) - перспективное направление развития ИТ технологий. Хотя оно пока не воплощено в индустриальных стандартах, все страны - лидеры ИТ-рынка - имеют государственные программы разработки грид-технологий. Цель этих программ;

- интеграция вычислительных мощностей - интеграция разнородных вычислительных систем в единое пространство с динамическим распределением ресурсов между приложениями;

- интеграция емкостей хранилищ - нечто подобное территориально распределенным RAID-системам;

- интеграция источников данных - например, интеграция в единую виртуальную базу разнородных баз данных, распределенных территориально, реализованных на разных аппаратных платформах и принципах.  
Термин "грид" создан по аналогии с понятием "power grid" - система, интегрирующая генерирующие мощности электрических сетей в единое "хранилище" энергии, откуда она перераспределяется вне зависимости от ее источника. Внедрение таких технологий в сфере высокопроизводительных вычислений позволит кардинально упростить доступ к вычислительным ресурсам и сделать их использование на порядок более эффективным. Помимо интеграции вычислительных ресурсов грид-технологии позволят интегрировать разнородные емкости хранения информации и базы данных для создания глобального информационного пространства. Сегодня ясно, что грид-системы получат большое распространение в научных и академических кругах, т. е. в условиях относительной открытости информационных ресурсов. В коммерческом сегменте, где очень остро стоит вопрос обеспечения безопасности обмена информацией и защиты интеллектуальной собственности, такие системы, по-видимому, будут востребованы в меньшей степени. 

 

6. Типы кластерных систем

 

Для каждого класса кластеров  характерны свои особенности архитекуры и применяемые аппаратные средства. Рассмотрим их более подробно. 

- Отказоустойчивые кластеры

Для обеспечения надежности и отказоустойчивости вычислительных систем применяется множество различных  аппаратурных и программных решений. Например, в системе может дублироваться  все подверженные отказам элементы — источники питания, процессоры, оперативная и внешняя память. Такие отказоустойчивые системы  с резервированием компонентов  применяются для решения задач, в которых недостаточно надежности обычных вычислительных систем, оцениваемой  в настоящий момент вероятностью безотказной работы 99%. В таких  задачах требуется вероятность 99,999% и выше. Такую надежность можно  достичь применяя отличные от приведенного выше методы повышения отказоустойчивости. В зависимости от уровня готовности вычислительной системы к использованию  выделяют четыре типа надежности: 

Уровень готовности

Мaкс. время

Тип системы

99,0

3,5 дня в год

Обычная (Conventional)

99,9

8,5 часов в год

Высокая надёжность (High Availability)

99,99

1 час в год

Отказоустойчивая (Fault Resilient)

99,999

5 минут в год

Безотказная (Fault Tolerant)


 
В отличие от отказоустойчивых систем с избыточными компонентами, а  также различных вариантов многопроцессорности, кластеры объединяют относительно независимые  друг от друга машины, каждую из которых  можно остановить для профилактики или реконфигурирования, не нарушая  при этом работоспособности кластера в целом. Высокая производительность кластера и сведение к минимуму времени  простоев приложений достигается благодаря  тому, что: в случае сбоя ПО на одном  из узлов приложение продолжает функционировать  или автоматически перезапускается  на других узлах кластера; выход  из строя одного из узлов (или нескольких) не приведет к краху всей кластерной системы; профилактические и ремонтные  работы, реконфигурацию или смену  версий программного обеспечения, как  правило, можно осуществлять в узлах  кластера поочередно, не прерывая работы других узлов. Неотъемлемой частью кластера является специальное программное  обеспечение, которое, собственно, и  решает проблему восстановления узла в случае сбоя, а также решает другие задачи. Кластерное ПО обычно имеет  несколько заранее заданных сценариев  восстановления работоспособности  системы, а также может предоставлять  администратору возможности настройки  таких сценариев. Восстановление после  сбоев может поддерживаться как  для узла в целом, так и для  отдельных его компонентов —  приложений, дисковых томов и т.д. Эта функция автоматически инициируется в случае системного сбоя, а также  может быть запущена администратором, если ему, например, необходимо отключить  один из узлов для реконфигурации. Кластеры могут иметь разделяемую  память на внешних дисках, как правило, на дисковом массиве RAID. Дисковый массив RAID — это серверная подсистема ввода- вывода для хранения данных большого объема. В массивах RAID значительное число дисков относительно малой  емкости используется для хранения крупных объемов данных, а также  для обеспечения более высокой  надежности и избыточности. Подобный массив воспринимается компьютером  как единое логическое устройство. Восстановление после сбоев может  поддерживаться как для узла в  целом, так и для отдельных  его компонентов — приложений, дисковых томов и т.д. Эта функция  автоматически инициируется в случае системного сбоя, а также может  быть запущена администратором, если ему, например, необходимо отключить один из узлов для реконфигурации. Узлы кластера контролируют работоспособность  друг друга и обмениваются специфической  «кластерной» информацией, например, о конфигурации кластера, а также передавать данные между разделяемыми накопителями и координировать их использование. Контроль работоспособности осуществляется с помощью специального сигнала, который узлы кластера передают друг другу, для того чтобы подтвердить свое нормальное функционирование. Прекращение подачи сигналов с одного из узлов сигнализирует кластерному программному обеспечению о произошедшем сбое и необходимости перераспределить нагрузку на оставшиеся узлы. В качестве примера рассмотрим отказоустойчивый кластер VAX/VMS.

КластераVAX/VMS Компания DEC первой анонсировала концепцию кластерной системы в 1983 году, определив ее как группу объединенных между собой вычислительных машин, представляющих собой единый узел обработки информации. По существу VAX- кластер представляет собой слабосвязанную многомашинную систему с общей внешней памятью, обеспечивающую единый механизм управления и администрирования. VAX-кластер обладает следующими свойствами: Разделение ресурсов. Компьютеры VAX в кластере могут разделять доступ к общим ленточным и дисковым накопителям. Все компьютеры VAX в кластере могут обращаться к отдельным файлам данных как к локальным. Высокая готовность. Если происходит отказ одного из VAX-компьютеров, задания его пользователей автоматически могут быть перенесены на другой компьютер кластера. Если в системе имеется несколько контроллеров HSC и один из них отказывает, другие контроллеры HSC автоматически подхватывают его работу. Высокая пропускная способность. Ряд прикладных систем могут пользоваться возможностью параллельного выполнения заданий на нескольких компьютерах кластера. Удобство обслуживания системы. Общие базы данных могут обслуживаться с единственного места. Прикладные программы могут инсталлироваться только однажды на общих дисках кластера и разделяться между всеми компьютерами кластера. Расширяемость. Увеличение вычислительной мощности кластера достигается подключением к нему дополнительных VAX-компьютеров. Дополнительные накопители на магнитных дисках и магнитных лентах становятся доступными для всех компьютеров, входящих в кластер. Работа VAX-кластера определяется двумя главными компонентами. Первым компонентом является высокоскоростной механизм связи, а вторым - системное программное обеспечение, которое обеспечивает клиентам прозрачный доступ к системному сервису. Физически связи внутри кластера реализуются с помощью трех различных шинных технологий с различными характеристиками производительности.  
Шина связи компьютеров CI (Computer Interconnect) работает со скоростью 70 Мбит/с и используется для соединения компьютеров VAX и контроллеров HSC с помощью коммутатора Star Coupler. Каждая связь CI имеет двойные избыточные линии, две для передачи и две для приема, используя базовую технологию CSMA, которая для устранения коллизий использует специфические для данного узла задержки. Максимальная длина связи CI составляет 45 метров. Звездообразный коммутатор Star Coupler может поддерживать подключение до 32 шин CI, каждая из которых предназначена для подсоединения компьютера VAX или контроллера HSC. Контроллер HSC представляет собой интеллектуальное устройство, которое управляет работой дисковых и ленточных накопителей. Компьютеры VAX могут объединяться в кластер также посредством локальной сети Ethernet, используя NI - Network Interconnect (так называемые локальные VAX- кластеры), однако производительность таких систем сравнительно низкая из-за необходимости делить пропускную способность сети Ethernet между компьютерами кластера и другими клиентами сети. Также кластера могут стоиться на основе шины DSSI (Digital Storage System Interconnect). На шине DSSI могут объединяться до четырех компьютеров VAX нижнего и среднего класса. Каждый компьютер может поддерживать несколько адаптеров DSSI. Отдельная шина DSSI работает со скоростью 4 Мбайт/с (32 Мбит/с) и допускает подсоединение до 8 устройств. Поддерживаются следующие типы устройств: системный адаптер DSSI, дисковый контроллер серии RF и ленточный контроллер серии TF. DSSI ограничивает расстояние между узлами в кластере 25 метрами.

Системное программное обеспечение VAX-кластеров.

Для гарантии правильного  взаимодействия процессоров друг с  другом при обращениях к общим  ресурсам, таким, например, как диски, компания DEC использует распределенный менеджер блокировок DLM (Distributed Lock Manager). Очень важной функцией DLM является обеспечение  когерентного состояния дисковых кэшей  для операций ввода/вывода операционной системы и прикладных программ. Например, в приложениях реляционных СУБД DLM несет ответственность за поддержание  согласованного состояния между  буферами базы данных на различных  компьютерах кластера. Задача поддержания  когерентности кэш-памяти ввода/вывода между процессорами в кластере подобна  задаче поддержания когерентности  кэш-памяти в сильно связанной многопроцессорной  системе, построенной на базе некоторой  шины. Блоки данных могут одновременно появляться в нескольких кэшах и  если один процессор модифицирует одну из этих копий, другие существующие копии  не отражают уже текущее состояние  блока данных. Концепция захвата  блока (владения блоком) является одним  из способов управления такими ситуациями. Прежде чем блок может быть модифицирован должно быть обеспечено владение блоком. Работа с DLM связана со значительными накладными расходами. Накладные расходы в среде VAX/VMS могут быть большими, требующими передачи до шести сообщений по шине CI для одной операции ввода/вывода. Накладные расходы могут достигать величины 20% для каждого процессора в кластере.  

7. Высокопроизводительные кластеры

 

Архитектура высокопроизводительных кластеров появилась как развитие принципов построения систем MPP на менее  производительных и массовых компонентах, управляемых операционной ситемой  общего назначения. Кластеры также  как и MPP системы состоят из слабосвязанных узлов, которые могут быть как  однородными, так и, в отличие  от MPP, различными или гетерогенными. Особое внимание при проектировании высокопроизводительной кластерной архутектуры  уделяется обеспечению высокой  эффективности коммуникационной шины, связывающей узлы кластера. Так как  в кластерах нередко применяются  массовые относительно низкопроизводительные  шины, то приходится принимать ряд  мер по исключению их низкой пропускной способности на производительность кластеров и организацию эффективного распараллеливания в кластере. Так  например пропускная способность одной  из самых высокоскоростных технологий Fast Ethernet на порядки ниже, чем у  межсоединений в современных суперкомпьютерах МРР-архитектуры.

Для решения проблем низкой производительности сети применяют  несколько: методов:  
- кластер разделяется на несколько сегментов, в пределах которых узлы соединены высокопроизводительной шиной типа Myrinet, а связь между узлами разных сегментов осуществляется низкопроизводительными сетями типа Ethernet/Fast Ethernet. Это позволяет вместе с сокращением расходов на коммуникационную среду существенно повысить производительность таких кластеров при решении задач с интенсивным обменом данными между процессами.  
- применение так называемого «транкинга», т.е. объединение нескольких каналов Fast Ethernet в один общий скоростной канал, соединяющий несколько коммутаторов. Очевидным недостатком такого подхода является «потеря» части портов, задействованных в межсоединении коммутаторов.  
- для повышения производительности создаются специальные протоколы обмена информацией по таким сетям, которые позволяют более эффективно использовать пропускную способность каналов и снимают некоторые ограничения накладываемые стандартными протоколами (TCP/IP,IPX). 
Такой метод часто используют в ситемах класса Beowulf. Основным качеством, которым должен обладать высокопроизводительный кластер являтся горизонтальная масштабируемость, так как одним из главных преимуществ, которые предоставляет кластерная архитектура является возможность наращивать мощность существующей системы за счет простого добавления новых узлов в систему. Причем увеличение мощности происходит практически пропорционально мощности добавленных ресурсов и может производиться без остановки системы во время ее функционирования. В системах с другой архитектурой (в частности MPP) обычно возможна только вертикальная масштабируемость: добавление памяти, увеличение числа процессоров в многопроцессорных системах или добавление новых адаптеров или дисков. Оно позволяет временно улучшить производительность системы. Однако в системе будет установлено максимальное поддерживаемое количество памяти, процессоров или дисков, системные ресурсы будут исчерпаны, и для увеличеия производительности придется создавать новую систему или существенно перерабатывать старую. Кластерная система также допускает вертикальную масштабируемость. Таким образом, за счет вертикального и горизонтального масштабирования кластерная модель обеспечивает большую гибкость и простоту увеличения производительности систем.

Информация о работе Серверные кластеры