Контакты
Подписка
МЕНЮ
Контакты
Подписка

В рубрику "Решения корпоративного класса" | К списку рубрик  |  К списку авторов  |  К списку публикаций

Из чего складывается стоимость центра обработки данных?

Современные центры обработки данных (ЦОД) ведут свою родословную от вычислительных центров, появившихся в 1960-е гг. В то время весь вычислительный центр занимал один-единственный компьютер, состоящий из десятков шкафов с оборудованием, соединенных сотнями проводов. Сегодняшние дата-центры, хотя и ушли далеко вперед в плане вычислительной мощности, внешне остались очень похожи на своих прародителей, поскольку принципы построения инфраструктуры для компьютерных устройств не изменились. Чтобы получить как можно более полное представление о том, из каких компонентов состоит современный ЦОД, давайте пошагово "пройдем" весь путь создания дата-центра от начала и до конца и посмотрим, во что это нам обойдется.
Юлия Фирсова
PR-менеджер компании ЗАО "ДатаДом"

Начнем с помещения

Идеальный вариант – постройка отдельного здания для дата-центра или учет его специфических требований в процессе строительства большого офисного здания, но так как это не всегда возможно, самым распространенным является подбор подходящего помещения и его адаптация под свои нужды.

Чтобы организация собственного дата-центра была экономически оправдана, помещение должно вмещать минимум 50–100 стоечных шкафов. Для установки и обслуживания аппаратуры необходимо оставить не менее 1,2 м между рядами стоечных шкафов. Таким образом, для размещения 50 стоек потребуется площадь помещения минимум 120 кв. м (с учетом размещения кондиционеров, электрооборудования и пространства под рабочее место оператора).

Теперь о высоте помещения. Стандартные серверные 19-дюймовые стойки и шкафы для аппаратуры имеют максимальную высоту 2200 мм. Кроме того, понадобится сверху минимум 0,5 м для размещения лотков под коммуникации. Пол дата-центра на самом деле является фальшполом, расположенным на высоте не менее полуметра над уровнем перекрытия, здесь проходят силовые линии питания для стоек с аппаратурой.

В 2005 г. американская Ассоциация производителей телекоммуникационного оборудования (TIA, Telecommunications Industry Association) утвердила стандарт надежности для ЦОД, по которому все дата-центры делятся на четыре категории.
Tier 1: дата-центры без избыточного резервирования оборудования, гарантированный uptime (время доступности сервиса) – не менее 99,671% общего времени работы, или 29 часов простоя в год.
Tier 2: избыточное резервирование оборудования, гарантированный uptime – не менее 99,741% общего времени работы, или 22,5 часа простоя в год.
Tier 3: избыточное резервирование оборудования, резервирование коммуникаций, резервная линия питания для IT-оборудования, гарантированный uptime – не менее 99,982% общего времени работы, или 1,5 часа простоя в год.
Tier 4: избыточное резервирование оборудования, резервирование коммуникаций, резервная линия питания для всего оборудования комплекса, гарантированный uptime – не менее 99,995% общего времени работы, или 0,5 часа простоя в год.

Так как в дата-центре будет размещаться тяжелое серверное оборудование, желательно заранее предусмотреть подъезд к зданию для грузовых автомобилей (возможно, с разгрузочным пандусом), а также организовать доступ в ЦОД для тележек с аппаратурой, поэтому должны быть широкие двери и наклонные пандусы вместо ступенек.

Снабжение электроэнергией

Современные ЦОД очень энергоемки, поэтому их стараются располагать недалеко от источника электроэнергии или от ближайшего узла его раздачи. Кроме того, электроэнергию нужно правильно распределять, для чего потребуются распределительные щиты, и она должна быть определенного "качества", которое обеспечивают источники бесперебойного питания.

Следующий важный вопрос – резервное электропитание. Линии электропитания дата-центра резервируются ДГУ, рассчитанными на полную нагрузку, включающую и активное оборудование, и всех потребителей. Для дата-центров первых двух уровней (Tier 1 и Tier 2) ДГУ является резервным источником питания и рассчитан на кратковременную работу (при перебоях с электроэнергией) с нагрузкой до 500 часов в год. Для дата-центров двух старших уровней (Tier 3 и Tier 4) ДГУ считается основным источником питания (то есть полное отсутствие электроэнергии в течение значительного времени не считается отказом или аварией) и рассчитан на постоянную работу.

Однако дизельные генераторы не настолько надежны и неприхотливы, как это кажется на первый взгляд. Если вы оставите автомобиль в гараже на продолжительное время, будет ли гарантия, что он заведется с первого поворота ключа? При использовании ДГУ в режиме "горячей замены", а не просто резервного источника питания, необходимы ежемесячное техническое обслуживание и еженедельный контрольный запуск по расписанию, что увеличивает стоимость владения.

Система климат-контроля

Так как компьютерная техника не только потребляет огромное количество энергии, но и выделяет соответствующее количество тепла, чрезвычайно важной для дата-центра является система климат-контроля, четко разделяющая воздух в помещении на подаваемый к оборудованию холодный (рабочий) и отводимый от него горячий (отработанный). Каждый поток должен направляться строго по своему "коридору".

"Темным" дата-центром (lights-out или darkened datacenter) называется дата-центр, в котором практически полностью упразднена необходимость в постоянном присутствии персонала для проведения каких-либо регламентных работ, за исключением внештатных ситуаций, поэтому он большую часть времени работает без освещения. Стойки, заполненные работающей аппаратурой с мигающими в темноте лампочками – зрелище, достойное фантастического фильма.

Чтобы система кондиционирования работала эффективнее, пространство под фальшполом может быть использовано в качестве камеры статического давления холодного воздуха, для чего необходимо точно рассчитать высоту фальшпола, количество перфорированных плит и даже количество перфорации в каждой плите.

Следующий шаг – защита ваших вложений

С этой целью в дата-центре, а также в здании, где он расположен, внедряют систему контроля доступа, состоящую из контрольно-пропускных пунктов и электронных замков. Для максимальной эффективности она дополняется системой видеонаблюдения как внутри ЦОД, так и в помещениях, примыкающих к нему.

Завершающий штрих в безопасности – система пожаротушения, состоящая из датчиков температуры и дыма, а также автоматической системы газового пожаротушения.

И напоследок

Последний компонент дата-центра – компьютерная инфраструктура для коммутации и мониторинга находящегося в нем оборудования. Обычно это сетевое оборудование, сервер для сбора статистики или биллинга клиентов и компьютер для оператора мониторинга. Как правило, их стоимость теряется на фоне затрат на подготовку помещения, установку систем электропитания и кондиционирования.

На этом стоимость собственно самого ЦОД заканчивается, и начинается стоимость владения, основу которой до 50% составляют расходы на оплату электроэнергии. Далее расходы распределяются следующим образом: аренда помещения, обслуживание систем кондиционирования, обслуживание энергосистем и обслуживание других инженерных систем, аренда каналов связи и зарплатный фонд персонала. Впрочем, многие из этих расходов заметно сокращаются выводом на аутсорсинг.

МНЕНИЕ ЭКСПЕРТА
Александр Ласый
Технический директор департамента интеллектуальных зданий компании "КРОК"

Современный ЦОД – это каждый раз совершенно уникальное сооружение, и канонический подход к составу систем в нем не всегда оправдан. Безусловно, существуют общие требования, которые необходимо соблюдать, но простора для творчества при строительстве ЦОД достаточно. Например, как выполнить в ЦОД бесспорные требования, когда они на первый взгляд совершенно невыполнимы…

Первое и самое главное, по-моему, это то, что ЦОД должен решать задачи, которые на него возлагает бизнес. Ведь слепое следование соответствию высокому Tier ведет к серьезным дополнительным затратам как в создании, так и в эксплуатации ЦОД. Соответствие тому или иному Tier не является самоцелью, а является показателем необходимой степени готовности и отказоустойчивости ЦОД.

В современном ЦОД многие решения отличаются от канонических. Например, совершенно необязательным является создание высокого (от 0,5 м и выше) фальшпола, так как ряд современных технологий охлаждения предполагает затопление холодным воздухом помещения и принудительное удаление горячего воздуха. Или при использовании межрядных кондиционеров, например, нужен только технологический фальшпол для размещения трубопроводов подачи охлажденной воды высотой 150–200 мм.

Хочется отдельно сказать несколько слов об оптимизации эксплуатационных расходов. Необходимо четко осознавать, что применение энергосберегающих решений и решений, снижающих эксплуатационные расходы, закладывается при проектировании и строительстве ЦОД и, как правило, увеличивает долю первоначальных вложений в общей стоимости владения. Однако общая стоимость владения при использовании таких решений может быть существенно (в 1,3–1,5 раза) снижена. На этот факт нужно обязательно обратить внимание еще на этапе создания концепции и проекта ЦОД. Есть еще один бонус применения энергоэффективных решений – это использование высвободившихся энергетических ресурсов для увеличения полезной (вычислительной) мощности ЦОД.

По опыту могу сказать, что любой ЦОД – это индивидуальный проект, в котором есть как интересные решения, так и типовые.

Опубликовано: Журнал "Технологии и средства связи" #6, 2011
Посещений: 7706

Статьи по теме

  Автор

Юлия Фирсова

Юлия Фирсова

PR-менеджер компании ЗАО "ДатаДом"

Всего статей:  1

В рубрику "Решения корпоративного класса" | К списку рубрик  |  К списку авторов  |  К списку публикаций