На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
09 Декабря 2024

Вычислительный центр следующего поколения

Статья опубликована в выпуске журнала № 3 за 2005 год.
Аннотация:
Abstract:
Автор: Быков А.Г. () -
Ключевое слово:
Ключевое слово:
Количество просмотров: 10367
Версия для печати
Выпуск в формате PDF (0.95Мб)

Размер шрифта:       Шрифт:

Темпы перемен нашей жизни являются движущей силой постоянного изменения, в том числе и архитектуры инфраструктуры информационных технологий (ИТ-инфраструктуры). Ведущие компьютерные фирмы активно пропагандируют свое видение и предложения для этой новой архитектуры: Adaptive Enterprise (Hewlett-Packard), стратегия TRIOLETM (Fujitsu-Siemens), Business On-Demand (IBM), Utility Computing, Oracle Informa­tion Architecture, ILM стратегия компании EMC2. Что же позволяет нам утверждать, что это –архитектура вычислительного центра следующего поколения?

Старший вице-президент по бизнес-приложе­ниям и главный технолог компании Microsoft Дэвид Васкевич (http://www.microsoft.com/presspass /exec/dvaskevitch/default.asp) в своей книге «Стратегии клиент-сервер. Руководство по выживанию специалистов по реорганизации», изданной IDG еще в 1993 году, достаточно убедительно очертил основную роль компьютерных технологий как инструмента оптимизации системы управления, инструмента, исполняющего правила управления, или программы. Этот инструмент сам является сложной многокомпонентной системой, к которой применимы законы управления. И поэтому рассмотрение архитектуры ИТ-инфраструктуры мы будем делать под углом ее адекватности потребностям по выполнению правил управления.

Рассмотрим хорошо известные архитектуры ИТ-инфраструктуры. Вначале архитектура ИТ-инфраструктуры была централизованной. В центре информационной системы (ИС), в главном вычислительном центре располагались главный вычислитель – мейнфрейм, главная шина данных и подсистема памяти (подсистема хранения данных, включая ОЗУ, диски и ленты), к которым были подключены терминалы. Компонентов было относительно немного, управление было эффективным, но центральный вычислительный центр был единой точкой отказа всей ИС, да и стоимость мейнфреймов была очень высока для большинства, и поэтому они были доступны только крупным организациям. С кибернетической точки зрения (закон Эшби: «Только разнообразие может справиться с разнообразием») явно требовалось увеличить разнообразие системы для обеспечения ее отказоустойчивости и удешевления, что и произошло.

Появление персональных компьютеров начало эру распределенных и значительно более доступных вычислений – систем клиент-сервер, заметный расцвет которых пришелся на 90-е годы прошлого века. Вычислительные устройства и подсистема памяти распределились поближе к терминалам, обеспечив более полное соответствие архитектуре приложений. Такое распределение потребовало бурного развития технологий шины данных – системы коммуникаций.

Эта, вторая архитектура ИТ-инфраструктуры относительно долгое время отвечала требованиям бизнеса. Но при таком обеспечении соответствия архитектуре приложений было постепенно потеряно преимущество эффективного управления ею. Даже в самом начале ее распространения появились проблемы с организацией адекватного управления такими распределенными системами, с обеспечением надежности и эффективности. Возможности системы ее управления все более отставали от увеличения разнообразия ИТ-инфра­структуры.

Времена изменились. Все большее понимание роли и места ИТ в нашей жизни и бизнесе повлекло за собой взрывообразный рост объема и возрастание важности компьютерных данных. Несмотря на то что прошла эйфория бума электронного бизнеса, все большему количеству ИС организаций уже нужно быть on-line 24 часа в сутки, 7 дней в неделю. Все большее число руководителей начинают оценивать затраты на ИТ с инвестиционной точки зрения и хотят получать как можно больше на вложенные средства. И поэтому перед современными ИТ-менеджерами стоят многочисленные проблемы, вызванные постоянным давлением требований «делать больше с меньшими ресурсами», улучшать уровень ИТ-сервисов наряду со снижением операционных расходов.

Ответом на новые потребности стало рождение третьей по счету архитектуры ИТ-инфра­структуры, в которой предпринята попытка соединить преимущества как централизованной, так и распределенной архитектур; попытка использовать принципы, которые применимы в управлении другими крупными, сложными и распределенными системами. С точки зрения управления ИТ-инфраструктурой и с учетом закона Эшби нас интересуют способы уменьшения существующего разнообразия ее компонентов и увеличение разнообразия способов воздействия на нее как на систему. Ключевыми словами здесь являются консолидация и виртуализация.

Консолидацией называют процесс объединения более мелких объектов в более крупные. При этом в случае консолидации компьютерных систем она может быть физической и логической.

Физическая консолидация означает физическое размещение серверов и системы хранения данных в одном или нескольких ограниченных помещениях или вычислительных центрах, использование нескольких мощных серверов вместо десятка или сотен более мелких.

Уменьшение количества серверов, количества производителей используемого оборудования, количества интерфейсов управления дает ощутимый эффект снижения общей стоимости владения прежде всего за счет снижения административных расходов. Не надо забывать, что стоимость процессорной мощности все время снижается, и при этом стоимость необходимого пространства, электропитания, установки, интеграции и администрирования находится на том же уровне и остается одинаковой независимо от загруженности вашего сервера.

Но одной физической консолидации в настоящее время уже недостаточно. По мнению Gartner Group, назвавшей 2004 год годом виртуализации, современные организации должны думать сегодня прежде всего не о консолидации серверов, а именно о стратегии виртуализации серверов (Predicts 2004: Server Virtualization Evolves Rapidly). В этом случае мы сталкиваемся с другим видом консолидации – логической.

Технологии виртуализации серверов – это способ спрятать физическую природу ресурсов за счет расслоения всей системы на различные уровни управления. Этим обеспечивается кардинальное уменьшение количества управляемых серверных компонентов за счет стандартизации, а за счет добавления инструментов осуществляется более гранулярное управление этими стандартными компонентами, необходимое увеличение количества способов управления ими. Добавление многоуровневой организации управления всей ИТ-инфраструктурой на базе определения сервисов, например с использованием стандартов ITIL, еще более увеличивает разнообразие воздействия на ИТ-инфраструктуру, делая управление адекватным всему разнообразию управляемой системы.

Слой виртуализации обеспечивает разделение реальных физических ресурсов – процессоров, подсистемы памяти, в том числе системы хранения данных, а также сетевого оборудования – и программного обеспечения, которое выполняется на них. Такая технология виртуализации используется в мейнфреймах под именами управления смешанной нагрузкой и логических разделов. Ее можно обнаружить практически во всех современных ОС (например, HAL уровень в Windows или архитектура TIMI для IBM AS/400 и OS/400®). Одним из ярких результатов использования инструментов гранулярного управления этой технологией является, например, тот факт, что обычная средняя полезная загруженность мейнфрейма находится в районе 80 %, что вдвое превышает обычную среднюю загрузку RISC-сервера и намного выше средней 5-15 % загруженности серверов с Intel®-архитектурой. Практическое изменение загруженности при использовании технологий виртуализации составляет от 30 % и более для RISC и как минимум более чем в два раза для Intel-серверов.

Дополнительно к достижению более рациональной загруженности процессорных мощностей технологии виртуализации серверов позволяют достичь следующих результатов:

-    предоставление компьютерных мощностей для новых приложений в течение десятков секунд, а не дней;

-    время отклика на проведение изменений измеряется в минутах;

-    обслуживание аппаратных компьютерных ресурсов производится без прерывания работы (zero-downtime);

-    создание высокоустойчивых конфигураций со временем восстановления, измеряемом в минутах, за гораздо меньшие деньги.

Новые технологии виртуализации, такие как распределенные менеджеры нагрузки, SAN и grid-вычисления дополнительно расширяют границы применения виртуализации за пределы одного физического сервера.

С точки зрения организации технологии виртуализации серверов позволяют обеспечить необходимый уровень стабильности исполнения правил управления (программ), быстро реагировать на изменившуюся обстановку, потребности системы управления организацией в целом, делают ИТ-сервисы по-настоящему гибкими, согласованными и более дешевыми.

Вторым стимулом изменений, приведших к возникновению новой архитектуры ИТ-инфра­структуры, явились бурный рост объемов информации с одновременным нарастанием ее важности, ценности для бизнеса. Использование прямого подключения системы хранения данных к серверу (Direct attached storage – DAS) долгие годы удовлетворяло потребности организаций при приемлемом уровне затрат. Но при больших объемах информации стоимость системы хранения данных вместе со всеми мерами по защите информации стала значительно превышать стоимость всех остальных компонентов ИС. В такой ситуации уже и система хранения данных требует стратегического планирования.

Аналогично ситуации с процессорными ресурсами сегодня мы не можем уже мириться с недоиспользованием дискового пространства на уровне 15-50 %. Разнообразие компонентов системы памяти стало недопустимо превышать требуемое разнообразие инструментов управления системой памяти.

Ответом на все эти требования стала технология сетей хранения данных (Storage area network – SAN), которая является примером логической консолидации ресурсов хранения данных.

Аналогично сетям LAN, которые позволяют эффективно разделять свои ресурсы для клиентов, сети SAN дают возможность так же эффективно разделять ресурсы системы хранения данных между серверами.

Внедрение SAN позволяет достичь:

-    эффективного использования ресурсов системы хранения данных на уровне 80-85 %;

-    снижения в 7-10 раз расходов на управление системами хранения данных (включая резервирование и восстановление данных, управление свободным пространством, производительностью и планирование восстановления после катастроф);

-    появления возможности обеспечения реальной непрерывности бизнеса (business continuity – BC) и быстрого восстановления после возникновения чрезвычайных обстоятельств (disaster recovery – DR) за сопоставимую с возможными потерями цену.

Как часть собственной стратегии по созданию адаптивной и адекватной ИТ-инфраструктуры и в результате сотрудничества с компаниями-про­изводителями (прежде всего с EMC2 и VMware, Sun Microsystems и Hewlett-Packard) компания «S&T Софт-Троник» предлагает несколько вариантов решений построения современного вычислительного центра, базирующихся на серверах и RISC, и Intel-архитектуры, систем хранения данных и соответствующего ПО управления компании EMC2, ПО виртуализации серверов Intel-архитектуры VMware, Solaris Containers (Solaris 10), HP Virtual Server Environment (HP-UX 11i). Эти решения никак не конкурируют с созданием систем grid-вычислений или кластеров с высокой производительностью, которые предпочтительны для крупных и/или специализированных решений.

Такие решения, например, находясь в рамках бюджета покупки 30 двухпроцессорных brand-name серверов (согласно идеологии старой архитектуры), позволяют сразу же:

·     обеспечить тот же или даже более высокий уровень производительности;

·     внедрить отказоустойчивую SAN;

·     организовать удаленный офис «горячей» замены для обеспечения непрерывности бизнеса и быстрого восстановления после чрезвычайных событий;

·     организовать централизованное управление и мониторинг;

·     купить библиотеку резервного копирования;

·     дополнительно обучить новым технологиям двух системных администраторов.

Приведенный пример моментальных экономических выгод использования новой архитектуры ИТ-инфраструктуры показывает такие очевидные преимущества, что, согласно принципу бритвы Оккама («Не умножай сущности без необходимости»), долговременные выгоды в этом случае даже можно и не учитывать.


Постоянный адрес статьи:
http://swsys.ru/index.php?id=513&page=article
Версия для печати
Выпуск в формате PDF (0.95Мб)
Статья опубликована в выпуске журнала № 3 за 2005 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: