Кластеры и виртуализация


Чтобы посмотреть этот PDF файл с форматированием и разметкой, скачайте его и откройте на своем компьютере.
Использование кластеров

Microsoft

Windows

Server

2003 поддерживает две технологии кластеризации: класте
ры с
балансированием сетевой нагрузки (
Network

Load

Balancing



NLB
) и класте
ры серверов.
Microsoft

не поддерживает сочетание
NLB
-
кластеризации с класт
ери
зацией
серверов.




Что такое кластер?

Кластер


это группа из двух и более компьютеров, действующих совместно для

обеспечения
работы общего набора приложений или служб и воспринимаемых кли
ентами как один элемент. Эти
компьютеры физически объединяют
ся с помощью аппаратных средств в форме сети или
разделяемых (совместно используемых) уст
ройств хранения данных. Программное обеспечение
кластера обеспечивает общий внешний интерфейс, управляя при этом ресурсами и нагрузкой внутри
кластера.

Служба управле
ния кластеризацией (
Windows

Clustering
) дает следующие пре
имущества.



Высокий уровень готовности. Если происходит сбой кластеризованного прило
жения или службы
либо отказ компьютера в кластере, то кластер реагирует на это, перезапуская приложение или
служб
у на другом члене (компьютере) клас
тера или распределяя нагрузку с отказавшего сервера
между остальными члена
ми кластера.



Масштабируемость. Для приложений, распознающих свое присутствие в класте
ре, добавление
машин к кластеру означает увеличение возможн
остей кластера.



Управляемость. Администраторы могут перемещать приложения, службы и дан
ные в кластере с
одного компьютера на другой, что позволяет вручную баланси
ровать нагрузку и снимать нагрузку
с машин, для которых запланировано об
служивание.

Кластер
ы с балансированием сетевой нагрузки (

Load

Balancing
)

Служба
Network

Load

Balancing

(
NLB
), придает службам и приложениям, осно
ванным на TCP/IP,
свойства высокого уровня готовности и масштабируемости за счет объединения до 32 серверов,
работающих п
од управлением системы
Windows

Server

2003 в одном кластере. Запросы клиента к
приложениям и службам в класте
ре распределяются среди доступных серверов кластера прозрачным
образом для этого клиента.
NLB
-
кластеры поддерживаются во всех версиях
Windows

Serv
er

2003.

При отказе или отсоединении какого
-
либо сервера кластер автоматически из
меняет свою
конфигурацию и соединения клиентов перераспределяются среди ос
тальных серверов. При
добавлении серверов к кластеру они автоматически распоз
наются, после чего в
кластере
автоматически выполняется перераспределение нагрузки.

Кластеры серверов

Кластеры серверов распределяют свою рабочую нагрузку среди серверов кластера причем каждый
сервер несет свою собственную нагрузку. Как и другие типы клас
теров, кластеры серве
ров
поддерживают высокий уровень готовности и масштаби
руемость. В случае отказа одного из
серверов приложения и службы, которые мож
но перезапустить, такие как очереди на печать и
файловые службы, перезапускаются прозрачным образом. Владение разделяемыми
ресурсами
передается остальным серверам. При восстановлении доступа к отказавшему серверу происходит
автома
тическое перераспределение рабочей нагрузки.

Windows

Server

2003 поддерживает кластеры серверов только в версиях
Enterprise

Edition

и
Datacenter

Edi
tion
. Существует три основных типа кластеров серверов, под
держиваемых системой
Windows

Server

2003: кластеры с одним узлом, кластеры с од
ним кворум
-
устройством и кластеры с
мажоритарным набором узлов, см. рис. 1.


Рис.
1.
Windows

Server

2003 поддерживае
т три различных модели кластера серверов

Сценарии работы кластеров

Чтобы решить, нужно ли применять кластеризацию и как ее реализовать, вы долж
ны

сначала понять
суть разрешаемой проблемы и найти наиболее подходящее ре
шение с использованием доступных
техн
ологий. Затем вам нужно реализовать оп
ределенное решение или комбинацию решений,
наиболее подходящих для данной проблемы. В этом разделе описываются различные сценарии и
типы кластериза
ции, наиболее подходящие для каждого из них.









Ф
ункциональные
средства интранет или
Internet

Сервер интранет или
Internet

-

первый «кандидат» на кластер типа
NLB
. Создавая кластер
NLB

с
несколькими серверами, вы одновременно обеспечиваете свой сайт избыточностью и увеличиваете
его возможности. При отказе какого
-
либо
сервера нагрузка перераспределяется прозрачным образом
среди остальных серверов.

Каждый веб
-
сервер в таком кластере управляет своим собственным веб
-
серве
ром и выполняет
доступ только к локальным веб
-
страницам. Эта версия называет
ся кластеризацией «без ра
зделяемых
ресурсов»: здесь нет разделяемых дисков и нет разделяемых приложений или данных, за
исключением, может быть, общей вспо
могательной базы данных.
NLB
-
кластеры


это вполне
подходящий и относитель
но недорогой способ обеспечения избыточности и высо
кого уровня
готовности для вашего веб
-
сайта, будь то внутренний или внешний сайты. Клиенты, которым тре
-
буется доступ к веб
-
страницам, распределяются между серверами кластера в соот
ветствии с
нагрузкой на каждом сервере. Этот подход приемлем потому, что б
оль
шинство веб
-
страниц
изменяется достаточно редко, что позволяет вручную обновлять все серверы одинаковой
информацией, когда вам требуется внести из
менения.

Terminal

Services

Начиная с
Windows

Server

2003, служба
Terminal

Services

теперь поддерживает
NL
B
-

кластеры и
новое средство
Session

Director

(Диспетчер сеансов) для распределения сеансов
Terminal

Services

среди множества серверов, работающих с
Terminal

Services
, что обеспечивает высокий уровень
готовности и балансирование нагрузки, и пред
ставляет е
диный интерфейс для клиентов службы
Remote

Desktop
. Если у вас много пользователей службы
Terminal

Services
, то переход к
Windows

Server

2003 и включе
ние
NLB
-
кластеризации для ваших серверов, работающих с
Terminal

Services
,
дает вам

более высокий уровень
гибкости и избыточности, а также повыш
ает возможно
сти ваших
пользователей Terminal Services.

Критически важная готовность

Если ваше предприятие совершенно не может р
аботать без определенного прило
жения или набора
приложений, вам нужен очен
ь надежный сервер
, чтобы обеспе
чить постоянный доступ к этому
приложению. Кл
астер серверов


вполне подходя
щее решение для этого сценария, обеспечивающее
высокий уровень готовности и масштабируемость. При использовании кластера
серверов вы
разбиваете критичес
ки важные прил
ожения на группы


по одной групп
е на каждый сервер. Все
ресур
сы для каждой группы обеспечиваются своим сер
вером, но при отказе любого сер
вера в
кластере другие серверы берут на себя управление службами и приложениями отказавшего сервера,
что позволяет обе
спечивать постоянную готовность

крити
чески важных служб и приложений. Вы
можете управлять операциями перехода по отключению (failover) и возврата после восстановле
ния
(failback) для каждого cep
вера и кластеризованного ресурса.

Для кластеров серверов требую
тся намного более значите
льные вложения в обо
рудование, чем для
кластеров NLB. Кроме того, за исключением мажоритарного набора узлов (majority node set) они не
подходят
для кластеризации «без разделяе
мых ресурсов», поскольку они используют для
синхронизаци
и ресурсов разделяе
мый массив дисков. При отказе одного сервера
другие серверы
берут на себя вы
полнение приложений, которые выполнялись на отказавшем сервере. Поскольку
диски используются разделяемым образом, остальные серверы имеет доступ к тому же набору

данных, что и отказавший сервер, что позволяет продолжать работу без потери функциональных
возможностей. Исключением является кластеризация с мажоритарным набором узлов при которой
не и
спользуется кворум
-
ресурс разде
ляемых дисков, а применяется репликация

данных в кластере на
диски локального кворума. Кластеризация с мажоритарным набо
ром узлов подходит для
географи
чески разбросанных кластеров и требует специа
лизированной поддержки от
произ
водителей исходного оборудования (OEM
-
обо
рудования) и независимых по
став
щиков
програм
много обеспечения
.

Требования и планирование

Прежде чем приступить к реализации любой формы кластеров, вы должны ясно понимать деловые
основания этой реализации.
Вы должны также знать о стоимос
ти и преимуществах такой
реализации, а также о

требованиях к ресурсам, необхо
димых для успешной реализации. Отнеситесь
к реализации кластера Windows Server 2003, как к любому другому важному проекту.
Четко
сформулируйте деловое обо
снование кластера и получите одобрение на всех уровнях, прежде чем
вкла
дывать значительные ресурсы в этот проект.

Определение целей и требований

Первым шагом в планировании вашего кластера я
вляется определение целей в реа
лизации и
требований, которым должно отвечать использование кластеров. Это кажется очевидным
утверждением,

но на самом деле это часть процесса, которой нередко уделяется лишь поверхностное
внимание. Реализация любой технологии должна быть в первую очередь деловым решением, а не
конкретным техническим решением. Создание и поддержка кластеров


это
нетривиальная

задача,
и она тре
бует как технических, так и финансовых ресурсов. Вам будет трудно продвигать ваш
проект, если вы не смогли точно сформулировать требования, которым он должен отвечать.

Определяя цели и потребности, которым до
лжен отвечать ваш проект, пост
а
райтесь выражать их по
возможности в доступной для понимания форме. То, что вы считаете «чистой» технологией, может
показа
ться бессмыслицей другим сотруд
никам организации, менее подготовленным в т
ехническом
отношении. Это не оз
начает, что эти люди не подд
ержат ваш проект,
-

просто вы должны изложить
его на уровне, доступном для их понимания.

Начните с четкого определения деловых целей, которые вы хотите осуществить. Поставьте общие
цели, но постарайтесь детализи
ровать проект в достаточной степе
ни. чтобы до
казать успешность
проекта конкретными числовыми показателями. Скажите конкретные выгоды, которые вы ожидае
те
от проекта, и как можно измерить

эти выгоды. Четко опишите, как реализуются в настоящее время
выявленные ми потребности. Это

критически важная част
ь, п
оскольку она позволяет вам опре
делить
как стоимость предлагаемого вами мето
да, так и связанные с ним факто
ры риска
-

Определение решения

Выяснив деловые требования, вы можете определить некоторые решения. Если вы ясно определили
задачи и цели проекта, т
о технология, отвечающая этим целям, будет определяться этими
требованиями, а не наоборот. Это также момент, когда стоит использовать ваши способности к
«политическому» мышлению. Вы должны не только выбрать наилучший способ, отвечаю
щий
деловым требованиям,

но так
же реально определить, какую часть проекта можно
реализовать за
один раз. На
пример, если вы окончательно решили, что вам нужно использовать полностью
интегрированное трехуровневое многокластерное

решение, то, возможно, вам при
дется принять
многоэтап
ный подход, который позволит вам распределить затраты и риски на более длительный
период.

Кроме того, если вы предлагаете кластерное решение проблемы, найдите время, чтобы
выявить методы, которые могут рассматрив
аться как альтернатива кластери
зации, и четк
о
определите их достоинства и недостатки. Это позволи
т снять возра
жения, когда вам потребуется
поддержка вашего проекта.

Определение рисков

Во время календарного планирования не забудьте определить факторы риска на каждом этапе этого
процесса и запланирова
ть обх
одные пути в случае возникнове
ния проблем. Защита проекта будет
намного проще, если всем будет ясно, что вы действительно предусмотрели возможные факторы
риска. Например, если вашей целью является замена существующего ручного метода, то оставьте
возм
ожность возврата к этому методу в случае возникновения проблем. И не являются ли взаи
-
моисключающими новый и старый методы? Есл
и вы заменяете существующее кли
ент
-
серверное
приложение на кластеризованное

распределенное n
-
уровневое при
ложение на основе веб,
то не
забудьте четко определить, каким образом будет происходить переход от старого приложения к
новому. Каковы факторы риска для этого перехода?

Найдите время, чтобы определить точки возможных проблем в вашем проекте. Если

вы создаете
кластер серверов для

обеспечени
я круглосуточного доступа к сис
теме обмена сообщениями
Microsoft Exchange, не

забудьте включить в кластер из
быточные сетевые соединения. Создание
сервера с высоким уровнем готовности не принесет пользы, если возникают вопросы относительно
сетевы
х соединений.

Создание контрольных списков

Найдите время, чтобы заранее определить все возможные элементы вашей реализа
-
ции кластера.
Составьте контрольный список шагов, которые вам требуется пред
-
принять, и список зависимостей
на каждом шаге

(этапе). Для
каждого существен
ного этапа определите оборудование, программные
средства, информацию и Ресурсы, которые вам потребуются, и создайте контрольный список
предпосылок этого этапа. Используйте для начала контрольные списки вопросов в справоч
нике

системе для ад
министратора кластеров (Windows Help

for Cluster Administrator), и
дополните его
деталями вашей реализации и ваш
его оборудования. Время, потрач
енное на планирование вашей
реализации кластера, с лихвой окупится при
уста
новке и реализации и в значительной ме
ре снизит
риск отказов.

Кластеры

типа

NLB (Network Load Balancing)

Кластеры с балансированием сетевой нагрузки (N LB) обеспечивают высокий ур0. вень готовности и
масштабируемости для сетевых приложений на основе TCP/
IP

таких как веб
-
сервер или FTP
-
сервер.
Объединяя ресурсы двух или более кластеров в один кластер, технология NLB может обеспечивать
избыточность информации и ресурсов, позволяя обслуживать при этом гора
здо больше клиентов,
чем при ис
пользовании одного отдельного сервера.




Как обойти блокировк
у запрещенных сайтов

Для того, чтобы понять, как обойти запрет на доступ к сайтам из реестра Роскомнадзора, необходимо
проанализировать как вообще работает интернет, поэтому в рамках просветительской и
пропагандистской работы блог НТВ сейчас проведет крате
нький ликбез. Итак, все сайты в сети
кроме названия имеют еще и IP
-
адрес, который указывает на сервер, где расположен сайт. Записи о
том, какому сайту какой адрес принадлежит хранятся на специальных "DNS" серверах. Когда
пользователь жмет в строке браузера

любимый сердцу ntv.livejournal.com, компьютер соединяется с
DNS
-
сервером провайдера, чтобы узнать где находится искомый сайт. Получив IP
-
адрес сайта,
браузер уже напрямую соединяется с указанным сервером и получает в ответ нужную веб
-
страницу.


Выглядит э
то примерно так:



Роскомнадзор ведет реестр веб
-
ресурсов, подлежащих блокировке, который содержит как названия
сайтов (домены), так и их технические адреса (IP адреса). Закон обязывает провайдеров блокировать
доступ к таким ресурсам. Так как видов записе
й запрещенных сайтов два, то и блокировок у
провайдера тоже может быть две:



блокировка по DNS. При обращении к DNS
-
серверу провайдера компьютер пользователя вместо
реального IP
-
адреса веб
-
сервера получает (вторая стрелочка сверху) адрес со страницей
-
у
ведомлением о блокировке или же не получает вообще ничего.


блокировка по IP. При обращении к серверу, расположенному по искомому IP адресу компьютер
пользователя соединяется не с веб
-
сервером нужного сайта, а с веб
-
сервером провайдера, который
выдает с
траницу
-
уведомление о блокировке, либо соединение вообще не происходит.


Таким образом, чтобы обойти первый тип блокировки, достаточно воспользоваться публичными
DNS сервисами, прописав адреса их DNS
-
серверов в настройках сетевого соединения. Небольшой
спи
сок открытых серверов:



209.244.0.3 / 209.244.0.4 Level3


8.8.8.8 / 8.8.4.4 Google


184.169.143.224 / 184.169.161.155 Securly


8.26.56.26 / 8.20.247.20 Comodo Secure DNS


208.67.222.222 / 208.67.220.220 OpenDNS


156.154.70.1 / 156.154.71
.1 DNS Advantage


198.153.192.1 / 198.153.194.1 Norton DNS


67.138.54.120 / 207.225.209.77 ScrubIT


74.207.247.4 / 64.0.55.201 OpenNIC


199.5.157.131 / 208.71.35.137 Public
-
Root


208.76.50.50 / 208.76.51.51 SmartViper


Кроме альтернативных D
NS
-
серверов нужный адрес можно прописать прямо в операционной
системе компьютера, в файле hosts. Его

можно

найти

в

папке
:



Windows 95/98/ME: WINDOWS
\
hosts


Windows NT/2000: WINNT
\
system32
\
drivers
\
etc
\
hosts


Windows XP/2003/Vista: WINDOWS
\
system32
\
drivers
\
etc
\
hosts


Mac OS/Linux/Unix: /etc/hosts


Обойти блокировку по IP немного сложнее, зато способов гораздо больше. Принцип обхода
заключается в том, что раз провайдер не дает компьютеру соединиться с нужным сервером
напрямую, можно подключиться к

сайту используя промежуточные сервера, с которых
заблокированный ресурс "виден".




Самый простой способ


воспользоваться услугами сайтов
-
анонимайзеров. Чтобы получить доступ к
заблокированному ресурсу, достаточно ввести адрес сайта на одном из таких се
рвисов. Минус этого
способа заключается в том, что все эти сервисы, как правило, достаточно медленно работают и не
подходят для комфортного серфинга.



http://anonymouse.org


http://www.hidemyass.com


http://www.shadowsurf.com


http://www.proxy
forall.com


http://www.proxyweb.net


http://www.pagewash.com


http://webwarper.net


https://www.megaproxy.com


http://www.anonymizer.ru


Также один из сервисов


hidemyass предоставляет плагины для браузера, чтобы сделать обход
блокировок бо
лее удобным:



Плагин для фаерфокса: https://addons.mozilla.org/ru/firefox/addon/hide
-
my
-
ass
-
proxy
-
extension/?src=userprofile


Плагин для хрома: https://chrome.google.com/webstore/detail/hide
-
my
-
ass
-
web
-
proxy/cmgnmcnlncejehjlnhaglpnoolgbflbd/related?
hl=ru


В браузере Opera подобный плагин уже встроен и включается нажатием на кнопку Opera Turbo.


Использование прокси
-
сервера.


Для обхода большинства ограничений можно воспользоваться прокси
-
серверами. Прокси
-
сервера


это компьютеры, на которых функцион
ирует специализированное программное обеспечение,
позволяющее принимать запросы на соединение с различными сайтами. При работе с прокси
-
сервером компьютер пользователя "перепоручает" такому серверу соединиться с определенным
сайтом. Это очень похоже на пре
дыдущий способ, но в данном случае браузер работает в обычном
режиме. Для использования прокси
-
сервера необходимо прописать его адрес в настройках браузера.
Списки бесплатных прокси
-
серверов легко ищутся гуглом, но найденное, увы, не всегда работает
быстро

либо зачастую не работает вообще. Вот несколько сайтов, где можно найти бесплатные
прокси:



http://cool
-
proxy.ru


http://www.freeproxy.ru/ru/free_proxy/




http://hideme.ru/proxy
-
list/


http://spys.ru/en/


Существуют программы, помогающие подключаться к таким серверам или даже целым цепочкам
(каскадам) прокси
-
серверов. Из заслуживающих внимания стоит выделить проект JAP


http://anon.inf.tu
-
dresden.de/index_en.html




К сожалению, прокси редко когда обеспечи
вают настоящую анонимность, поэтому более надежным
решением является использование VPN
-
туннеля. VPN
-
туннель


это виртуальное зашифрованное
стойким алгоритмом соединение. Абстрактно его можно представить в виде непрозрачной трубы, а
лучше тоннеля, один кон
ец которого упирается в компьютер пользователя, а второй в
специализированный сервер, находящийся, как правило, в другой стране. Весь сетевой трафик
отправляется в такой туннель, минуя любые заграждения и препоны провайдера. Так как туннель
зашифрован, пер
ехватить данные или заблокировать доступ к какому
-
либо сайту очень сложно. В
интернете существует большое количество сервисов, которые предлагают купить доступ к такому
тоннелю. Стоит это не очень много, порядка 5$ долларов в месяц, зато обеспечивает надеж
ный и
анонимный доступ к любым сайтам и сервисам. Альтернативный вариант этого метода


аренда
собственного виртуального сервера у какого
-
нибудь зарубежного провайдера и настройка на нем
специализированного ПО, позволяющего ему принимать и обслуживать VPN
-
подключения.




Следующий уровень безопасности и паранойи


это TOR. К счастью, это не выживший из ума
националист, а всего лишь специальное ПО, позволяющее подключаться к анонимной
высокозащищенной от прослушивания сети. Подключение происходит через целую

цепочку
соединений, узлами которых являются клиентские компьютеры, подключенные к TOR. Цепочка
каждый раз выбирается случайным образом, а сама информация шифруется несколько раз. TOR
позволяет подключаться анонимно не только клиентам и пользователям, но и

серверам, отчего в этой
сети пышным цветом расцвели сайты по продаже оружия, наркотиков и коллекции детской
порнографии. Из
-
за своей недоступности эта часть интернета называется DeepWeb или DarkWeb.


Главная страница скрытого сайта Hidden wiki


каталога
скрытых ресурсов в сети TOR


Снимок экрана 2012
-
11
-
13 в 4.17.04



Магазин наркотиков Silk Road (шелковый путь). Годовой оборот этого сайта оценивается в 22
миллиона долларов.


Silk_Road_Marketplace_Item_Screen



Раздел с детским порно в каталоге ссылок. В
сети TOR просто охуительное количество порнографии
самого разного толка. За рамки сети, как правило, эти материалы не выходят, но и с самими сайтами
сделать практически ничего нельзя. Спецслужбы пытаются бороться с TORом, но получается у них
это как
-
то не
очень.


Снимок экрана 2012
-
11
-
13 в 4.20.28



TOR


это разработка с открытым исходным кодом, что гарантирует защиту от встроенных троянов
и бэкдоров. Сейчас разработчики предоставляют возможность скачать и установить TOR Bundle


единый пакет ПО, где ничег
о не нужно настраивать. Для начала анонимной работы его достаточно
скачать, установить и просто запустить.



Windows: https://www.torproject.org/dist/torbrowser/tor
-
browser
-
2.2.39
-
5_en
-
US.exe


Mac: https://www.torproject.org/dist/torbrowser/osx/TorBr
owser
-
2.2.39
-
5
-
osx
-
x86_64
-
en
-
US.zip


Увы, TOR


одна из самых медленных систем.


Последний, практически непробиваемый вариант


сеть I2P.








































Построеник

кластера
WEB

серверов.



Распределение нагрузки между неск
олькими процессорами, дополненное различными методиками
восстановления программного обеспечения, позволяет создать среду высокой готовности и
улучшить совокупные показатели RAS (Reliability, Availability, and Serviceability


надѐжность,
готовность и удобс
тво обслуживания) среды. К числу преимуществ такого подхода относится более
быстрое восстановление после незапланированных выходов из строя, а также минимальное
воздействие плановых отключений на конечных пользователей.


Чтобы получить максимум пользы от э
той статьи, вы должны быть знакомы с Linux и основами
сетевых технологий; также у вас должны быть настроены серверы Apache. В наших примерах
используется стандартная установка SUSE Linux Enterprise Server 10 (SLES10), но знающие
пользователи других дистриб
утивов смогут адаптировать приведенные здесь методы и под них.


В этой статье продемонстрирован надежный комплекс Web
-
серверов Apache из 6 узлов Apache (хотя
для описываемых ниже действий достаточно 3 узлов), а также 3 директоров Linux Virtual Server
(LVS)
. Мы использовали 6 серверных узлов Apache, чтобы обеспечить более высокую пропускную
способность и смоделировать более крупные системы. Представленную здесь архитектуру можно
масштабировать для значительно большего количества директоров и серверов Apache,

в зависимости
от доступных ресурсов, хотя сами мы не пробовали более крупных конфигураций. На рисунке 1
показана реализация системы с применением Linux Virtual Server и компонентов linux
-
ha.org.



Рисунок

1.
L
inux
Virtual Servers
и

Apache


Как можно увид
еть на рисунке 1, внешние клиенты отправляют трафик на единый адрес IP, который
может существовать на любой машине директора LVS. Машины директора выполняют активный
мониторинг пула Web
-
серверов, по которым они распределяют работу.


Обратите внимание, что
рабочая нагрузка движется с левой стороны рисунка 1 на правую сторону.
Плавающий адрес этого кластера в любой заданный момент времени принадлежать одному из
экземпляров директора LVS. Адрес сервиса можно менять вручную посредством графической
конфигурацион
ной утилиты или (чаще всего) он может изменяться автоматически, в зависимости от
состояния директоров LVS. Если какой
-
либо из директоров становится неработоспособным
(вследствие потери соединения, сбоя программного обеспечения и т.п.), адрес сервиса автома
тически
назначается доступному директору.


Плавающий адрес сервиса должен объединять два или более отдельных экземпляра оборудования,
чтобы можно было продолжать работу в случае сбоя одной физической машины. В конфигурации,
представленной в этой статье, ка
ждый директор LVS может направлять пакеты на любой реальный
Web
-
сервер Apache, независимо от места его физического расположения или близости к активному
директору, предоставляющему плавающий адрес сервиса. В этой статье показано, как каждый из
директоров L
VS может выполнять активный мониторинг серверов Apache, чтобы запросы
гарантированно отправлялись только на работающие серверы.


В такой конфигурации экспериментаторы успешно выводили из строя целые экземпляры Linux, и
при этом обслуживание потребителей се
рвисов, связанных с плавающим адресом, не прекращалось
(как правило, речь идет о Web
-
запросах http и https)



Новое в терминологии Linux Virtual Server



Директоры LVS: Директоры Linux Virtual Server


это системы, которые принимают произвольный
вход
ящий трафик и передают его любому количеству реальных серверов. После этого они получают
ответ от реальных серверов и возвращают его клиентам, отправившим запрос. Директоры должны
выполнять свою задачу прозрачно, чтобы клиенты не замечали, что фактически о
бработку нагрузки
выполняют реальные серверы.



Сами директоры LVS должны иметь возможность передавать ресурсы (в частности, виртуальный
адрес IP, по которому они принимают входящий трафик) друг другу, чтобы они не стали единичной
точкой отказа. Директо
ры LVS выполняют передачу адреса IP с помощью компонента Heartbeat в
составе LVS. Это позволяет каждому директору, на котором работает Heartbeat, гарантировать, что
один и только один директор отвечает за обслуживание входящих запросов на обслуживание на
а
дрес IP.



Кроме возможности передачи адреса IP службы, директоры должны иметь возможность
мониторинга состояния реальных серверов, выполняющих фактическую обработку нагрузки.
Директоры должны в любой момент времени знать, какие реальные серверы доступн
ы для работы.
Для того, чтобы контролировать реальные серверы, используется пакет mon.



Реальные серверы:Эти системы являются фактическими экземплярами Web
-
серверов,
обеспечивающими высокую готовность сервиса. Если необходимо обеспечить высокую готовно
сть,
критически важно, чтобы реальных серверов, выполняющих обслуживание, было больше одного. В
нашей среде использовалось 6 реальных серверов, но добавление большего числа не составляет
никакого труда, если остальная инфраструктура LVS уже настроена.




В этой статье предполагается, что на всех реальных серверах работает Web
-
сервер Apache, хотя
точно так же можно реализовать и другие сервисы (например, очень легко добавить сервис SSH в
качестве дополнительного теста представленной здесь методологии).





В качестве реальных серверов использовались имеющиеся в наличии Web
-
серверы Apache,
единственным отличием которых было то, что они были настроены на ответ таким образом, как если
бы они имели плавающий IP
-
адрес директора LVS или виртуальное имя хоста, с
оответствующее
плавающему IP
-
адресу. Это достигается изменением одной строки файла конфигурации Apache.


Вы можете повторить наш файл конфигурации, используя пакет программного обеспечения с
полностью открытым исходным кодом, в который входят компоненты те
хнологии Heartbeat,
предоставленные linux
-
ha.org, и мониторинга сервера средствами mon и Apache. Как уже было
отмечено, для тестирования нашей конфигурации мы использовали SUSE Linux Enterprise Server.


Все машины, использованные в нашем сценарии LVS, расп
олагаются в одной подсети в
конфигурации трансляции сетевых адресов (Network Address Translation, NAT). На сайте Linux
Virtual Server приведены описания множества других сетевых топографий; мы выбрали NAT для
простоты. Для обеспечения большей безопасности
необходимо ограничить трафик через
брандмауэры только трафиком на плавающий IP
-
адрес, который переходит между директорами LVS.


В комплекте Linux Virtual Server реализовано несколько методов построения прозрачной внутренней
инфраструктуры высокой готовност
и. У каждого метода есть свои преимущества и недостатки. LVS
-
NAT работает на сервере директора, перехватывая входящие пакеты, адресованные на указанные в
конфигурации порты, и динамически заменяя адрес назначения в заголовке пакета. Директор не
обрабатывае
т данные, содержащиеся в самих пакетах, направляя их вместо этого на реальные
серверы. Адрес назначения в пакетах заменяется адресом заданного реального сервера из кластера.
После этого пакет передаѐтся в сеть для доставки на реальный сервер; при этом реал
ьный сервер не
видит, что что
-
то произошло. С точки зрения реального сервера он просто получает запрос
напрямую из внешнего мира. После этого ответы реального сервера отправляются директору, где
они снова переписываются так, что в качестве адреса отправите
ля устанавливается плавающий IP
-
адрес, указанный клиентом, и отправляются исходному клиенту.


Использование подхода LVS
-
NAT требует наличия на реальных серверах базовой функциональности
TCP/IP. В других режимах работы LVS, а именно, в LVS
-
DR и LVS
-
Tun, тре
буются более сложные
сетевые подходы. Основное преимущество выбора LVS
-
NAT состоит в том, что для настройки
реальных серверов требуется минимум изменений конфигурации. Фактически самое сложное


это
не забыть правильно установить параметры маршрутизации.


Шаг 1: Создание образов реальных серверов

Начните с создания пула экземпляров серверов Linux, на каждом из которых работает Web
-
сервер
Apache, и проверки их работоспособности, указывая в браузере IP
-
адрес каждого реального сервера.
Как правило, в стандартн
ой установке настраивается мониторинг порта 80 на собственном IP
-
адресе
(другими словами, на разных IP для каждого реального сервера).


После этого настройте Web
-
страницу по умолчанию на отображение статической страницы,
содержащей название узла машины, об
служивающей эту страницу. Это поможет вам точно знать во
время проведения испытаний, к какой машине вы подключаетесь.

Кластер баз данных

Решение для повышения отказоустойчивости и доступности корпоративных информационных
систем. Основой решения является пр
ограммный продукт Microsoft Cluster Service (CS).
Отказоустойчивость достигается за счет дублирования всех активных компонентов и встроенной
системы мониторинга работоспособности. В сочетании с адаптивной архитектурой серверных
компонентов DEPO решение мож
ет быть эффективно использовано для задач различного уровня
сложности.


Основная цель использования кластера базы данных


обеспеч
ение высокой доступности. Сегодня
для приложений всѐ чаще выдвигаются такие бизнес
-
требования, как обеспечение доступа к данным
в режиме 24/7, и недоступность базы данных из
-
за выхода из строя оборудования или из
-
за
необходимости выполнения операций по обс
луживанию сервера часто просто недопустима.
Использование кластера серверов баз данных может помочь предотвратить недоступность данных
из
-
за выхода из строя сервера, вызванного сбоем в программном обеспечении, необходимостью
выполнения операций по обслужив
анию сервера или из
-
за потери сетевого соединения с сервером.
Использование кластеризации позволяет повысить на порядок уровень доступности баз данных MS
SQL Server и СУБД Oracle.

Решение идеально подходит для построения на его основе высокодоступных корпо
ративных
систем управления, таких как различные конфигурации 1С, MS Dynamics NAV (Navision) и AХ
(Axapta), Oracle E
-
Business Suite и прочих, включая системы собственной разработки, использующие
MS SQL Server и СУБД Oracle.

Данное решение также может быть и
спользовано для кластеризации различных серверных
приложений и сервисов.















Функциональная схема




Компоненты решения




Серверы (узлы кластера)



Коммутаторы (для открытой и кластерной сети)



SAN
-
коммутатор



Cистема хранения SAN



Операционные сист
емы



SQL серверы



ИБП



Кабели, разветвители и пр.



Работы (монтаж и конфигурирование)



Примеры


Количество узлов

1А/1П



2А/1П

3А/1П

Процессоры

2 x Intel Xeon
1.86GHz Dual
Core

2 x Intel Xeon
2.0GHz Quad Core

2 x Intel Xeon
3.0GHz Quad Core

4 x Intel Xeon
2
.16GHz Quad
Core

Оперативная память

8Gb

16GB

16GB

32GB

Емкость системы
хранения

3.6Tb

3.6Tb

7.2Tb

7.2Tb

Производительность

Средняя

Высокая

Средняя

Высокая

Характеристики и технологии



Расширяемость кластера до 16 узлов.


Расширяемость системы хр
анения до 40Tб.


Возможность использования до 64Гб оперативной памяти на каждом узле.


Возможность установки как SAS, так и SATA
-
дисков.


Опционально устанавливается модуль удаленного управления IPMI 2.0. Непрерывный контроль
напряжений по каналам с

выдачей сообщения об отклонении. Контроль скорости вращения и
управление вентиляторами по 2 каналам. Система Watch Dog предотвращает зависание системы.


Как устроен кластер


В состав кластера базы данных входит два и более узлов (серверов), каждый из кото
рых
конфигурируется таким образом, чтобы приложение (в данном случае SQL Server) могло работать на
любом из них. При этом само приложение виртуализируется, т.е. становится независимым от какого
-
либо узла. Обязательным условием является наличие общей для вс
ех узлов системы хранения.
Наиболее часто для этого используется архитектура SAN. Основное приложение и все необходимые
для его работы ресурсы, такие как файловые ресурсы или сетевое подключение, определяются в
общую кластерную группу. В случае недоступнос
ти одного из ресурсов кластерной группы
управляющее приложение инициирует перевод работы основного приложения и всей кластерной
группы на другой узел.

Для мониторинга состояния узлов кластер использует как открытую локальную, так и
кластерную сеть. Каждые
5 секунд выполняется проверка LooksAlive (как живой), а каждые 60
секунд


более глубокая проверка IsAlive (действительно живой). В случае неуспешности проверка
выполняется еще 5 раз, после чего кластер переведет группу на другой узел, передав другому
серв
еру в монопольное владение все ресурсы данной группы. После того, как группа ресурсов будет
передана, экземпляр SQL Server инициирует процедуру стартовой регенерации (recovery), после
исполнения recovery для баз данных SQL Server переходит в состояние гото
вности к работе и
обслуживанию запросов пользователей.


Пользовательские приложения должны будут выполнить повторное подключение к серверу баз
данных. Приложение, которое соединяется с экземпляром SQL Server, использует виртуальный, а не
физический IP
-

ад
рес. Фактическая принадлежность виртуального IP
-

адреса управляется
кластером, поэтому приложение никогда не будет знать, на каком узле фактически находится
адресуемый экземпляр.

Преимущества использования



Предотвращение сбоев. Главным преимуществом
кластера базы данных является исключение
длительного простоя в работе приложений, вызванного всевозможными отказами аппаратных
средств, которые весьма вероятны для современных серверов, сложность которых постоянно растѐт.
Часто совсем маленькая проблема в
состоянии вывести операционную систему из строя на
длительный срок, причѐм подобные отказы не нуждаются в тщательном расследовании или
переустановке компонентов или даже всего сервера, но они бывают достаточно серьезны, чтобы
приложение оказалось неработос
пособным на недопустимое время. Кластер может помочь в
предотвращении многих подобных проблем в работе приложений, поскольку ресурсы приложения
могут быть быстро переброшены на другой узел кластера, и часто сделать это можно даже без
потери клиентских подк
лючений.


Сервисные пакеты. Cервисные пакеты как операционной системы Windows, так SQL Server
являются причиной простоя приложений, который может возникнуть во время установки и
перезагрузки сервера после инсталляции такого пакета. При использовании кла
стера
администраторы могут установить сервисный пакет практически без простоя приложений,
инициируя отказ узла, вследствие которого база данных будет обслуживаться другим узлом, что
позволит заняться установкой сервисного пакета на первом узле. В это время

база данных будет
доступна на втором узле, а экземпляр на первом узле может быть недоступен на время перезагрузок
или иных действий.


Модернизация. Не редко возникает необходимость увеличения производительности серверов. Это
означает необходимость мигр
ации и продолжительного простоя. При использовании кластера
миграцию выполнить намного легче и с минимальным временем простоя. В кластер добавляется
новый узел, выполняется установка всех необходимых обновлений. Затем с помощью процедуры
перехода на резерв
ный ресурс выполняется перенос сервера на новый узел, а старый исключается из
кластера. Время простоя ограничивается временем перехода на резервный ресурс, т.е. лишь
несколько минут, вместо нескольких часов или даже нескольких суток без использования класт
ера.




Цели внедрения и параметры

надежности кластеров:

Кластер
-
это группа компьютеров и устройств хранения данных, которые работают совместно
и объединены в единую систему сервиса и хранения данных.

Они могут находиться на одной
площадке, либо могут быть

географически распределенные
на разные
кластерные площадки.

У таких систем, как мы помним из теории надежности, существуют 2 базовых
характеристики. Среднее время
до отказа

(
MTTF
)
.
Среднее в
ремя восстановления (
MTTR
)
.

Коэффициент готовности


вероятность

того, что объект окажется в работоспособном состоянии в
произвольный момент времени, кроме планируемых периодов, в течение которых применение
объекта по назначению не предусматривается


Представляет собой отношение времени исправной работы к сумме времен
исправной работы и
вынужденных простоев объекта, взятых за один и тот же календарный срок.













Где:



-
среднее время наработки на отказ (
суммарное время исправной работы объекта

или системы)






среднее время восстано
вления (суммарное время вынужденного простоя)

Один из основных принципов построения отказоустойчивых систем
-

не иметь единой точки отказа.

От чего зависит отказоустойчивость системы?


Существуют способы повышения отказоустойчивости без использования класт
ерной технологии
-
например дублирование сервисов (
DHCP
,
DNS
, файл серверов, контроллеров домена). Можно
использовать возможности операционной системы. Но такие сервера как
SQL
,
WEB
,
почтовые
сервера.


Терминология кластеринга:


Функциональная схема устройст
ва хранения данных:

Failover

Clastering
-
построение высокодоступного решения, позволяющая обеспечить
досттупность сервисов в случае аварийной сетуации
. (без повышения производительности)

Load

balancing

(
NLB

кластеринг)
-

повышение доступности

TCP
\
IP

прило
жений. Распределяет
нагрузку между серверами+ повышение отказоустойчивости.


























Дорога в «облака»

Виртуализация.

Виртуализация
-
новейший тренд

развития информационных

технологий. М
ир уже пережил период
консолидации серверов. Сейчас

устойчивой стала тенденция создания внутренних и внешних

«облаков». Не так давно обозначился новый тренд


виртуализация

десктопов. Возможно, завтра
появится опять что
-
то невероятное.

«Эволюционная револю
ция»
-
так охарактеризовал этот процесс

руководитель представительства

компании VMware

в России и СНГ Антон Антич
-
продолжается.

А что в России? Мы, как

в пословице, долго запрягаем,

зато быстро едем. По словам

Антона Антича,
«в России

пока не так много ком
паний, которые

подошли к созданию внутреннего

«облака», однако
многие

уже находятся в фазе консолидации

серверов. Поэтому мы сейчас находимся

на той стадии,
когда все думают: «У меня есть моя

железная инфраструктура, а в мире уже какие
-
то

«облака»
-

и
внут
ренние, и внешние, виртуализация

десктопов. Что делать?» По большому счету, можно

перепрыгнуть через эту эволюцию. Технологии уже

отработаны. Почему нет? Можно уже брать
четвертое

поколение виртуальных технологий и внедрять во все

области ИТ. Именно это се
йчас и
происходит
.

Виртуализация оборудования

Популярные технологии:



VMware;



Hyper
-
V;



Xen;



KVM.

В случае с виртуализацией оборудования используется

специальный программный слой
-

гипервизор
(hypervisor),

позволяющий сэмулировать на одном физическом сервере

несколько виртуальных
окружений


виртуальных

машин (ВМ), которые изнутри выглядят как отдельные физические

машины, со своим набором оборудования и ресурсов.

При этом одна часть оборудования физического

сервера может быть передана в монопольное
использова
ние

отдельной ВМ. Другая часть может быть тем или иным

способом разделена между
разными ВМ. Также оборудование,

используемое ВМ, может быть полностью эмулируемым

и не
существовать физически. Технологии виртуализации

оборудования позволяют запускать внутри
ВМ
практически

любые гостевые ОС, достигать максимального уровня изоляции

и независимости ВМ,
работать внутри ВМ с такой же

степенью свободы, как и на физическом сервере.

Существует две разновидности виртуализации оборудования:



полная виртуализация



паравир
туализация.

В случае полной виртуализации ОС внутри ВМ видит стандартизованное

оборудование, работа с
которым не отличается

от работы с аналогичным физическим оборудованием.

При этом никаких модификаций гостевой ОС не требуется:

все действия по обеспечению

работы виртуального окружения

берет на себя гипервизор. В случае
паравиртуализации

вместо полноценной эмуляции оборудования гостевой ОС

предоставляется для
работы специальный API. В некоторых

случаях это может оказаться более эффективным с точки

зрения пр
оизводительности, но требует специальной поддержки

со стороны гостевой ОС.

Виртуализация уровня операционной системы

Популярные технологии:



Virtuozzo;



Solaris Zones;



FreeBSD Jails.

Виртуализация уровня ОС подразумевает в первую

очередь не эмуляцию ап
паратного обеспечения
для различных

ВМ (хотя отдельные аппаратные компоненты могут

быть эмулированы), а работу на
уровне разделения групп

процессов и ресурсов в рамках одной ОС. При виртуализации

уровня ОС
все процессы работают в единой ОС

(что накладывает

ограничение на ядро ОС
-

оно единое для

всех
ВМ), но процессы различных ВМ не видят и не влияют

друг на друга, распределением ресурсов и
разграничением

доступа между ними занимается подсистема виртуализации

на уровне ядра ОС. За
счет этого внутри каждой В
М

видны и доступны к использованию только выделенные ей

ресурсы.
Свободные/неиспользуемые ресурсы могут быть

динамически перераспределены между различными
ВМ,это дает уникальные возможности по эффективному использованию

ресурсов и позволяет
повысить плотно
сть

размещения ВМ.

Виртуализация уровня ОС также предоставляет большие

возможности по экономии ресурсов за счет
возможности

их совместного использования, дает более гибкие возможности

по управлению ВМ,
обеспечивает меньшие накладные

расходы на виртуализаци
ю. Но уровень свободы и степень

изоляции здесь, к сожалению, отстают от гипервизорных

технологий.

Наиболее распространенные цели использования виртуализации:



повышение эффективности использования оборудования;



унификация используемого оборудования, повышен
ие

управляемости;



повышение надежности/стабильности.


Повышение надежности/стабильности


Виртуализация
-

хороший способ сэкономить на оборудовании

и повысить надежность системы в
целом. Конечно,

эти задачи не всегда могут быть решены совместно, но возможнос
ти

появляются
очень интересные.

В случае использования ВМ, отсутствует привязка к физическому оборудованию.
В случае

необходимости проведения работ на физическом сервере

ВМ может быть прозрачно
перенесена на другой физический

сервер. В случае сбоя физическ
ого сервера ВМ может

быть
целиком восстановлена из резервной копии на другой

физический сервер, а при наличии
централизованной системы

хранения ВМ может быть моментально перезапущена

на другом,
исправном сервере, и она будет работать точно

так же. Более то
го, некоторые технологии
виртуализации по
зволяют использовать режим Fault Tolerance, при котором состояние

ВМ
непрерывно
с
инхронизируется между разными

физическими серверами, и даже полное уничтожение
одного

физического сервера не приведет к нарушению рабо
ты ВМ.


Консолидация ресурсов.

Консолидируя ресурсы и получая

от этого выигрыш, надо

не забывать о том, что можно
получить
единое узкое место

или единую точку отказа

размещение, бесперебойное электропитание,
подключени
е

к Интернету) и воспользоваться услугой аренды виртуального

сервера у сервис
-
провайдера. Это может оказаться гораздо

эффективнее с экономической точки зрения и просто

элементарно проще и удобнее.

Есть еще целый ряд особенностей и преимуществ, которые

дает

виртуализация. Чтобы понять, какие
из них лучше

применимы в вашем случае, необходим подробный анализ

ситуации, но, скорее всего,
вы обязательно найдете в виртуализации

свои плюсы.

Например, для разделения ресурсов физического сервера

между пользователями виртуальных

с
ерверов в нашей

компании применяется одна из передовых технологий виртуализации

-

Virtuozzo от компании Parallels с возможностью

выбора ветки и версии операционной системы
UNIX/
Windows. Но, разумеется, у каждой компании,
использующей

технологии виртуализации, есть
свой опыт.

Нет
-

технологии ради технологии!

Обязательное условие успеха при переходе на виртуализацию
-

четкое понимание цели внедрения
той или иной технологии.

Как показывает практика, подход «технология ради

т
ехнологии» в итоге к
положительному эффекту для бизнеса

не приводит. Одно из основных правил, о котором надо

помнить: основные опасности виртуализации вытекают

из ее основных преимуществ. Консолидируя
ресурсы и получая

от этого выигрыш по целому ряду показ
ателей, надо

не забывать о том, что
можно получить единое узкое место

или единую точку отказа. Нужно уделять повышенное внимание

вопросам надежности и наличию запаса ресурсов:

«складывая все яйца в одну корзину», необходимо должным

образом защитить свои се
рвисы.

Пожалуй, главное
-

это не просто использовать ВМ

как дешевые/высоконадежные альтернативные
варианты

физических серверов, а понимать, что это особый тип сервиса,

со своими достоинствами и
недостатками, со своими

отличительными чертами. Только в таком

случае можно будет

получить максимальную пользу от виртуализации.

Во что обойдется этот переход? Затраты ресурсов и времени

на виртуализацию сервисов напрямую
зависят оттого,

что в итоге необходимо получить. Можно за 10 минут и тысячу

рублей заказать у
сервис
-
провайдера виртуальный сервер

как услугу и перенести туда свои данные, а можно годами

строить сложную и дорогую систему. Н
е
т единого рецепта
-
каждую ситуацию необходимо
внимательно анализировать.

Да
-

надежности и безопасности!

Консолидация серверов предъявляет повышенные требования

к стабильности и надежности. При
сбое/простое одного

физического сервера или системы хранения могут быть

недоступны все ВМ,
размещенные на этом оборудовании.

Решение
-

использование высоконадежного оборудования,

дублирование/резервирование оборудования, использование

возможностей систем виртуализации
для обеспечения

высокой доступности.

При регламентных работах, обновлении программного

обеспечения или замене аппаратных
компонентов может

потребоваться остановка/пер
езагрузка физического сервера
это способно
привести к остановке/перезагрузке сразу

большого количества размещенных на нем ВМ. Решение
-

использование дополнительного оборудования и механизмов

миграции систем виртуализации для
перемещения ВМ

на другое обор
удование (во многих случаях это можно сделать

вообще без простоя
ВМ, т.н. online
-
миграция).

Виртуализация смягчает требования к надежности
.
Сейчас создано огромное превосходство
в
о
зможностей
оборудования

по сравнению с требованиями ПО. 1/1 вполне уже

можно запускать в
виртуальном окружении каждую рабочую

станцию. Вот прямо так: сначала стартует хостовая ОС,
потом

из набора профилей стартует нужная система по запросу

в виртуальном окружении. Пр
офили
(читай: виртуальные

машины) могут быть как локальными, так и удаленными,

как остановленными,
так и просто замороженными. Короче,

виртуализация это вообще не проблема. 1/1 уж тем более

не проблема критической надежности.
Е
сли виртуальная машина

или еѐ

хостовая ОС грохнулась, то
всегда есть снапшот,

и на любой хостовой машине всегда есть набор совместимых

(потому что
виртуальные)) девайсов для оживления данного

снапшота в готовую для эксплуатации систему.
Главная мысль:

виртуализация не ужесточает требо
вания к надежности, а напротив
-

смягчает их!




Информационная безопасность.

Как известно, информационная безопасность
-

это совокупность

организационных и технических
мероприятий,
направленных на обеспечение защиты информации от следующих

угроз:



нарушение конфиденциальности информации (разглашение);



нарушение целостности информациие (изменение);



утрата или снижение доступности информации (работоспособности).

Соответственно, основной комплекс мер для обеспечения

ИБ не отличается о
т использования
невиртуализован
ных систем, но в случае перехода на
виртуализацию появляется

дополнительный
слой, на котором также необходимо

учитывать все эти аспекты.

Надо всегда помнить, что управление информационной

безопасностью
-

это не построение
максимально надежно
й

системы защиты. Это управление рисками для минимизации

суммарных
затрат на безопасность, которые складываются

из затрат на обеспечение комплекса мер защиты и
итоговой

величины риска. Необходимо оценивать риски и принимать

адекватный величине риска
компле
кс защитных мер

Виртуализация серверов и приложений.

Microsoft предлагает набор инструментов виртуализации продукты, которые затрагивает все слои
вашим клиентам управлять.

• Сервер виртуализации
запуска
ет

несколько гостев
ых

операционн
ых систем

на одном
единственном
сервере.

В Windows Server

2008 эта функция будет частью операционной системы. Существует также
самостоятельный продукт, Microsoft

Hyper
-
V Server.

• Применение виртуализации запускать л
юбые приложения без установки операционной системы.

• Презентация виртуализации выполнения приложения на одном компьютере, и представить его в
другом.

• Виртуализация настольных систем, запускать несколько операционных систем на одном рабочем
столе компьют
ера.

Вопрос: Для каждого типа виртуализации, опишите хотя бы один сценарий, где, что решение для
виртуализации

может быть применен.


Виртуализация Серверов

Использование технологии виртуализации серверов в совместно используемом хранилище

Построен
ие надежной сети
iSCSI

SAN

становится промышленным стандартом для администраторов
VMware

ESX

и
ESXi
,
Microsoft

Hyper
-
V

и
Citrix

XenServer
. Виртуализация систем хранения является
следующим логическим шагом на пути построения виртуальной среды. Объединение п
реимуществ
iSCSI

SAN

и технологии виртуализации помогает повысить производительность, снизить расходы и
улучшить защиту систем и данных.


С помощью
iSCSI

SAN

создается мощное совместно используемое хранилище для виртуальных
машин, поддерживающее следующие
функции:



Непрерывная защита данных и мгновенные снимки (
CDP

&
Snapshots
). Объединяя технологии
непрерывной защиты данных (
CDP
) и мгновенных снимков,
StarWind

позволяет моментально
восстановить систему после сбоя. Можно использовать мгновенные снимки д
ля восстановления
отдельных файлов и папок или же произвести полный откат к состоянию логического диска, которое
было до возникновения сбоя.


Зеркалирование (
Mirroring
) и Репликация (
Replication
). Технологии асинхронной репликации и
синхронного зеркалир
ования, реализованные в
StarWind
, обеспечивают репликацию данных между
основной СХД и удаленной площадкой. Эти технологии используются для централизованного
резервного копирования и восстановления после сбоя, и настраиваются отдельно для каждого
логическог
о диска. Удаленное копирование, выполняемое по заданному графику, позволяет
пользователям организовать мгновенную репликацию данных между пунктами, расположенными в
разных серверных комнатах, соседних помещениях и зданиях и даже в удаленных районах города.


Тонкое резервирование (
Thin

provisioning
). Технология тонкого резервирования, обеспечивает
весьма эффективное использование дискового пространства. Администраторам больше не нужно
подсчитывать, сколько места им понадобится, и приобретать диски заранее
. Для повышения
эффективности сети хранения данных
Thin

Provisioning

выделяет ровно столько дискового
пространства, сколько необходимо для данных, хранимых на этом диске.

Снапшоты (
Snapshots
)

Снапшоты


это мгновенные снимки файловой системы на определенны
й момент времени. Они
фиксируют изменения на блочном уровне, произошедшие в состоянии логического диска. ПО
Snapshots

позволяет делать снапшоты вручную или автоматически, по заданному расписанию. Эта
функция предлагает быстрый и эффективный способ резервно
го копирования и восстановления
данных непосредственно в
SAN

с минимальным влиянием на производительность системы в целом.
Поскольку мгновенные снимки фиксируют лишь изменения блочного уровня, то для их хранения
требуется значительно меньше места, чем для
хранения полной резервной копии. К тому же
репликация данных из снапшотов не влияет на динамические процессы
LUN
, исключая уменьшение
производительности приложений и серверов, поскольку все операции происходят в
SAN
.

Функция
Snapshots

позволяет
:


Мгнове
нно восстанавливать или производить откат целого диска или отдельных файлов и папок к
состоянию, которое было до возникновения сбоя


Делать мгновенные снимки вручную или автоматически, по установленному расписанию

Клоны

В отличие от снапшотов, которые
фиксируют лишь изменения блочного уровня с момента
предыдущих мгновенных снимков, с помощью функции клонирования (
Clones
) создается полная
копия
LUN
. Эта функция позволяет увеличить защиту данных и дает возможность использовать
копии разделов в процессе ра
зработки и тестирования программного обеспечения.

Виртуализация операционной системы.


Итак, давайте раз
беремся с теорией функционирова
ния VMWare Workstatio
n. Внутри реальной
машины на ос
нове процессора X86 работает основная операци
онная
система. Под ее уп
равлением
выполняются приложения,

родные для этой системы. Несмотря на тот факт, что

VMWare Workstation
также является родным для основ
ной системы приложе
нием, между ним и системой нахо
дится
тонкая прослойка, называемая «слоем в
иртуали
зации» и позволяюща
я
виртуализировать работу с
обо
рудованием, установленным на реальной машине. Это

нужно для того, чтобы п
озволить
единообразно и прозрач
но работать с подобны
м оборудованием из каждой госте
вой системы.
Следующ
ая задача, которая решается вве
дением такого промеж
у
точного слоя,


это предоставле
ние
всем системам о
дновременного доступа к оборудо
ванию реальной системы.

В свою очередь внутри приложения VMWare Workstation

находятся контейнеры виртуальных
машин. Каждая из них

получает в свое рас
поряжение следующий набор

вирту
альных устройств:




 Процессор


такой же частоты, как установленный в настоящей машине. На
многопроцессорном компьютере каждая машина получает доступ только к одному из
доступных процессоров.



 BIOS



Материнская плата



Оперативная память


в зависи
мости от доступной на

реальной машине. Не может превышать
предел в 1 Гб.




SCSI


до 7 одновременно подключенных устройств.

Дает возможность создавать
виртуальные жесткие диски размером до 256 Гб. Простой интерфейс работы со SCSI
-
устройствами позволяет легк
о подключать DVD
-
ROM, CD
-
ROM, ленточные накопители,
сканеры

и прочие SCSI
-
устройства.




-
карты
.



 Контроллер USB



И т.д.



На основе такого богатого выбора можно создавать любые, даже самые экзотичные,
комбинации из вышеперечисленного оборудования.

С
ледующей в нашем списке фигурирует гостевая операционная система, которая работает с
созданным нами набором виртуальных устройств. На ее основе запускаются все приложения,
предназначенные для работы с этой конкретной системой.


Применение Виртуализации пр
иложений:


Возможности компьютерной техники возрастают год от года. Если раньше вопрос
производительности и использования был связан только с одним сервером, на котором можно было
развернуть одну единственную роль или приложение, то теперь серверное оборуд
ование способно
справляться с гораздо большей нагрузкой. Иными словами, сейчас для того же объема работы
требуется меньше серверов. Виртуализация позволяет в полной мере использовать возросшую
мощность современных компьютеров, при этом не нужно заботиться
о конфликтах, которые могут
возникать при совместной установке важных приложений и ролей сервера на один экземпляр
Windows Server 2008. По сравнению с традиционной установкой виртуализация обеспечивает
следующие преимущества.




Более эффективное использован
ие аппаратных ресурсов Жизненно важные сетевые службы,
такие как DHCP и DNS, создают небольшую нагрузку на серверный процессор и память. Роли
DNS и DHCP можно устанавливать совместно на одном компьютере Windows Server 2008,
однако если установить разные се
тевые роли на разные разделы, эти разделы можно будет
переназначить другим узлам в случае изменения обстоятельств использования этих ролей.




Повышенная доступность Объединение этих служб на одной аппаратной платформе
позволяет снизить затраты на оборудован
ие и техническое обслуживание. На первый взгляд,
перемещение служб с нескольких платформ на одну ведет к риску единовременного отказа
всей системы, на самом же деле благодаря технологиям избыточности (кластеризация и узлы
с поддержкой горячей замены, такие

как процессоры, память, блоки питания и жесткие диски)
за меньшую цену обеспечивают более высокий уровень надежности. Представьте себе такую
ситуацию: на каждом из четырех компьютеров

Windows Server 2008

выполняется отдельное
сетевое приложение. В случае

отказа компонента на одном из серверов пользователи смогут
получить доступ к приложению на этом сервере только после замены компонента. Один
сервер с избыточными компонентами обойдется дешевле, чем четыре таких сервера, при этом
благодаря избыточности в с
лучае отказа компонента все роли сервера по
-
прежнему будут
доступны пользователям.




Отказ от постоянной готовности серверов
.

К некоторым серверам не требуется постоянный
доступ. Например, для выпуска сертификатов рекомендуется использовать подчиненные
цен
тры сертификации (ЦС), тогда как корневой ЦС на это время может быть переведен в
офлайновый режим. В целях безопасности инфраструктуры сертификации можно вообще
полностью виртуализировать сервер корневого ЦС и хранить его на съемном жестком USB
-
диске, подк
лючая только в случае необходимости. Виртуализация позволяет освободить
редко используемое оборудование или вообще избавляет от необходимости покупать его.




Изолирование ролей
.

Изолирование ролей


это термин, обозначающий деление серверных
ресурсов на раз
делы, позволяющее избежать влияния приложения или службы на другие
компоненты сервера. В отсутствие изоляции отказавшее серверное приложение или роль
способны вывести из строя весь сервер. Веб
-
приложения объединяются в «песочницу» служб
IIS, поэтому сбой о
дного из них не повлечет за собой общий отказ системы. Точно так же
запуск серверных приложен
ий и ролей в отдельной виртуали
зированной среде гарантирует,
что один сбойный процесс не приведет к отказу всей системы.




Увеличение доступных ресурсов Значительно

увеличить аппаратную мощность одного
сервера дешевле, чем бесконечно модернизировать несколько серверов. Можно увеличить
мощность серверного узла за счет дополнительных процессоров и ОЗУ и в случае нужды
назначить эти ресурсы виртуальному серверу




Повышен
ная мобильность Виртуализированный сервер можно относительно легко
переместить на другой узел в случае перегрузки ресурсов исходного узла. Допустим, что на
компьютере под управлением Windows Server 2008 Enterprise размещены 10
виртуализированных серверов,
дисковая система компьютера выполняет операции ввода
-
вывода на предельной скорости. Переместить несколько виртуализированных серверов на
другой узел проще, чем провести миграцию или модернизацию сервера. Еще проще сделать
это при помощи инструментов вроде
System Center Virtual Machine Manager.




Упрощение резервного копирования и восстановления
.

Такие инструменты, как теневые
копии тома, позволяют резервировать образы целого сервера, не прерывая его работы. В
случае отказа узла образы можно быстро восстанови
ть на другом компьютере. Вместо
резервного копирования отдельных файлов и папок можно создать резер
вную копию всего
виртуализирова
нного компьютера сразу. Средство System Center Virtual Machine Manager
(SCVMM) 2007 позволяет перемещать виртуальные машины в
сети хранилищ

данных
(
SAN
)
и даже выполнять перенос виртуальных машин между узлами.

Virtual Server 2005 R2

Virtual Server 2005 R2 с пакетом обновл
ения 1 можно загрузить бесплатно

с веб
-
сайта Microsoft:
http://www.microsoft.com/windowsserversysCem/virtualse
rver/down loads.aspx. Этот инструмент
п
озволяет развертывать экземпляры

виртуальных машин на 32
-
разрядной версии Windows Server
2008 и управлять ими.

в компании есть компьютер аналогичной мощности, на который установлена 64
-
разрядная версия
Windows

Server

2003
R
2. Компьютер может потребоваться для узла виртуализации, но компания
пока не готова обновить его ОС до
Windows

Server

2008.

Г
ипервизор Hyper
-
V


Hyper
-
V


это функция Windows Server 20
08, обеспечивающая работу вирту
алпзированных
компьютеров в среде 6
4
-
разрядных версий Windows Server 2008. Hyper
-
V


технология, основанная
на применении гипервизора, представляющего собой программную прослойку между компьютером
и ОС, позволяющую одновременно запускать на компьютере несколько операционных систем. По
своим

функциям Hyper
-
V очень близка Virtual Server 2005 R2, но в отличие от Virtual Server 2005 R2
Hyper
-
V встроен непосредственно в операционную систему в качестве роли, а
не
выполняется в
операционной системе как приложение. Будучи средством, включенным в ОС,

Hyper
-
V имеет и
другие отличия от Virtual Server 2005R2 с SP1:




Hyper
-
V позволяет запускать 64
-
разрядные гостевые виртуальные машины. На Hyper
-
V могут
одновременно размещаться 32
-

и 64
-
разрядные гостевые виртуальные машины.




Hyper
-
V поддерживает SMP в сре
де виртуальных машин.




На Hyper
-
V можно разместить одновременно столько виртуальных машин, сколько может
поддержать оборудование.




Hyper
-
V можно сконфигурировать как часть отказоустойчивого кластера, тогда в случае
отказа виртуальная машина переключиться н
а другой узел виртуализации под управлением
Hyper
-
V




Hyper
-
V можно использовать на компьютере под управление ядра сервера Windows Server
2008 (Server Core). Управление Hyper
-
V на таком компьютере осуществляется через
интерфейс WMI или через удаленный сеанс

с консоли диспетчера Hyper
-
V.




Гостевая виртуальная машина на Hyper
-
V может иметь не более 4 виртуальных SCSI
-
контроллеров.



У гостевой виртуальной машины на Hyper
-
V может не более 8 виртуальных сетевых
адаптеров.



В Windows Server 2008 Enterprise и Windows

Server 2008 Datacenter включены лицензии на
запуск виртуализированных экземпляров операционной системы на Hyper
-
V.

Создание виртуальных машин.

Создать виртуальную машину на узле Hyper
-
V не так уж сложно, для этого нужно запустить мастер
создания виртуальн
ой машины из консоли управления виртуализацией. Чтобы создать виртуальную
машину:


1.

Укажите имя и место размещения виртуальной машины Для обеспечения

избыточности
рекомендуется установить виртуальную машину на том RAID
-
5, а еще лучше на том RAID 0+1 или
RAID 1+0. Не следует размещать виртуальные машины на томе с ОС узла. Имя виртуальной машины
не обязательно должно совпадать с именем компьютера, оно может содержать другую информацию
о виртуальной машине.

2.

Определите объем памяти
.

Максимальный объем памя
ти зависит от объема оперативной
памяти компьютера узла. Помните, что память необходимо выделить каждой активной виртуальной
машине и что общий объем памяти, выделенной для всех активных виртуальных машин и ОС узла,
не может превышать объем оперативной пам
яти, установленной на узле.

3.

Задайте сетевые параметры
.

Укажите, какая из установленных на узле сетевых плат будет
использоваться для виртуальной машины. Для сети с высокой пропускной способностью можно
добавить дополнительную сетевую плату и выделить ее

исключительно для определенной
виртуальной машины.

4.

Определите виртуальный жесткий диск Для хранения данных жесткого диска виртуальные
машины используют неструктурированные «плоские» файлы. Эти файлы подключает гипервизор
Hyper
-
V. С точки зрения виртуал
ьных машин это обычный жесткий диск, который можно
отформатировать или разбить на разделы. При создании виртуального жесткого диска следует
выделить достаточно места для расширения ОС, однако не стоит выделять все доступное
пространство, если в дальнейшем
планируется добавлять другие виртуальные машины.


5.

Укажите параметры установки ОС На последнем этапе настройки виртуальной машины
необходимо задать способ установки ОС: из файла образа (например, файл .iso), с оптического
устройства (например, DVD
-
ROM) и
ли с размещенного в сети сервера установки [например, службы
развертывания Windows (WDS)].

После этого можно запустить виртуальную машину и начать процесс установки

ОС


Управление виртуализированными серверами


Управление гипервизором Hyper
-
V осуществляет
ся через консоль диспетчера Hyper
-
V (рис. 8
-
1).


При помощи этой консоли можно управлять виртуальными сетями, редактировать и проверять
диски, создавать и удалять снимки, выполнять откаты к имеющимся снимкам и изменять параметры
виртуальных машин. В случа
е необходимости можно также подключать в виде томов виртуальные
жесткие диски, находящиеся на сервере узла.

Снимки


Снимки (snapshots)


это что
-
то вроде резервных копий виртуализированной машины на
определенный момент времени. Главное преимущество снимков

в том, что они позволяют
выполнить откат к более раннему состоянию операционной системы гораздо быстрее, чем любая
другая технология. Допустим, к примеру, что корпоративный веб
-
сервер интрасети является
виртуальной машиной под управлением Hyper
-
V. Снимок
этого сервера выполняется каждый день.
Из
-
за непредвиденных проблем с системой управления пользовательским содержимым при
установке последнего пакета обновлений на узле интрасети с сервера были полностью удалены все
данные. Прежде для восстановления файлов

администратору потребовались бы ленты с резервными
копиями. С технологией Hyper
-
V достаточно всего лишь выполнить откат к предыдущему снимку, и
все вернется к состоянию, которое существовало на момент выполнения снимка.






Применимость различных технол
огий виртуализации к бизнес
-
задачам.





Испо
льзование

набора

средств

Microsoft Assessment and Planning (MAP) Toolkit 4.0


Независимо от того, являетесь ли вы ИТ
-
специалистом, партнером или консультантом, набор средств
Microsoft Assessment and Planning (MAP) Toolkit 4.0 поможет
получить общее представление об ИТ
-
инфраструктурах в компании и определить правильные технологии Майкрософт для ваших
потребностей. Этот бесплатный акселератор решений позволяет быстро проводить инвентаризации
небольших

и крупных ИТ
-
сред без необходимости
установки агентского программного обеспечения. Данные и
анализ, предоставляемые средством MAP, упрощают процесс планирования широкого спектра
мероприятий по обнаружению, подготовке и консолидации серверов.

Набор средств MAP, устанавливаемый на единственном

сетевом компьютере, позволяет собрать и
упорядочить информацию об ИТ
-
среде с помощью доступных технологий, таких как
инструментарий управления Windows (WMI), служба удаленного управления реестром, доменные
службы Active Directory, а также служба обозреват
еля компьютеров. После того как набор MAP
выполнит сбор требуемых данных, он может предоставить подробные и сводные отчеты,
помогающие выполнять следующие задачи:



Определение готовности оборудования и совместимости устройств для операционных систем



Выявление физических серверов с неполной загрузкой и ролей, установленных на них


Подготовка рекомендаций по консолидации серверов с помощью Hyper
-
V


Обнаружение серверов Microsoft SQL Server и виртуальных машин, присутствующих в среде



















Приложенные файлы

  • pdf 8852679
    Размер файла: 3 MB Загрузок: 0

Добавить комментарий