Центровете за данни трябва да работят качествено, безотказно и ефективно
Здравко Николов, управляващ директор на Equinix България
Уважаеми г-н Николов, бихте ли представили накратко компанията, която ръководите?
През 2010 година трима висококвалифицирани технологични специалисти изграждат в София най-големия в страната и първи по рода си неутрален център за данни - 3DC. Неутрален е, защото не принадлежи на бизнес-организация, не е част от телеком или системен интегратор, а е самостоятелен проектиран да предлага собствени услуги. Той се помещава в сграда на телефонна палата в столицата, върху 3000 кв. м. площ, с 4 трасета по 10KV към две подстанции и с връзки към 10 телеком-оператора на тъмно влакно.
През 2019 година центърът е придобит от Equinix - най-големият в света оператор на колокационни центрове за данни с над 240 съоръжения, разположени в 27 страни на пет континента. Скоро след сделката започва изграждането на втори център за данни на Equinix в столицата - на стойност 19 милиона долара. Двете съоръжения, вече наречени SO1 и SO2, се отличават с висока надеждност, като работата им е гарантирана за 99,9999% от времето. Това означава не повече от половин минута прекъсване на година. Реално към този момент SO1 няма нито едно прекъсване за своите близо 10 години функциониране. На прага на 2023 година Equinix се готви да започне и нов строеж - разширение на SO2.
В продължение на това, бихте ли разказали повече за новото разширение?
Факт е, че SO1 и SO2 ни отесняха вече. Клиентите ни растат като брой, интересът към настоящите услуги е голям. Причината да е така е, че живеем в преходен период. Някога светът привидно се отказа от мейнфрейм машините, за да премине към разпределени изчисления. Тогава индустрията реши, че е добре всеки да има персонален компютър. Сега обаче тече преход в обратната посока - към централизирани изчисления. Това е т. нар. „облак“ в компютинга.
Може да се каже със сигурност, че в дългосрочен план облакът ще надскочи драстично капацитета, който е изграден до момента в света от гледна точка на изчислителни системи. Но така, както парните локомотиви не са изчезнали с появата на електрическите, и в света на компютинга появата на новата технология няма да доведе до пълното изчезване на старата. В този смисъл традиционният бизнес на изчислителните центрове, каквито ги познаваме - като центрове за колокация - в момента се трансформира. На ход е много дълбока и тежка промяна.
Ще бъде интересно да научим също, как се променят сградите, които помещават центровете за данни.
Навремето се строяха изчислителни центрове, за които беше важно да са представителни. Можем да дадем за пример Министерство на транспорта или редица други ведомства. Става дума за официално изглеждаща сграда в центъра на града, в сърцето на която е скрит изчислителен център. Сетне тази индустрия започна да се отделя, да става самостоятелна и да се самодефинира. Благодарение на развитието на банки, застрахователни компании, Интернет бизнеси, е-търговия стана актуално да се строят самостоятелни центрове за данни. Те са лъскави, представителни, с луксозни приемни, с кухни и зони за комфорт за персонала, с бляскав дизайн - впечатляващ, цветен, със стъклени фасади.
В момента обаче вятърът се обръща на 180 градуса. Т. нар. хиперскейлъри се опитват агресивно да пробият на пазара и строят изчислителни центрове, за които западният свят има дума, която буквално означава кокошарник (chicken barn). Това са примитивно изглеждащи сгради със супер-спартански условия. Хиперскейлърите са толкова агресивни по отношение на цената, която искат да получат, че модерните компании за изчислителни центрове просто няма как да предоставят страхотни дата-център технологии на цената, която се форсира.
В същото време хиперскейлърите имат огромна покупателна сила и добре осъзнават това.
Затова индустрията на датацентровете се съгласява на този компромис, заради спестяването на средства. Ние страним от тази тенденция и отказваме да работим по този начин. Във всеки център за данни на Equinix всичко се изгражда по най-висок стандарт, като се започне от брайлови надписи на съоръженията и тоалетни за инвалиди, и се стигне до дефибрилатори и миещи станции за очи.
От тази гледна точка, какви технологии за сградно управление използвате ?
Степента на управляемост на подобни сгради е решаваща и затова разчитаме на BMS система за сграден мениджмънт. Всичко започва от т. нар. PPM - планово-превантивна поддръжка. Това означава, че измерваме множество параметри на вътрешната и външната среда и на тази база вземаме решения, които касаят поддържането и промените по инфраструктурата. За всяко събитие ние събираме данни, обработваме ги и анализираме. Ако се е случило нещо, например се е включило резервно захранване ние сядаме и правим анализ, преглеждаме логове, правим изводи. Затова ни е важно да събираме данни.
Измерваме всички показатели на всичко: на наличните батерии, съпротивление на филтрите на климатиците, количество кислород в залите, въздухонепроницаемост на помещенията, средна дневна температура на околната среда, влажност навън, скорост на флуидите в резервния охладителен кръг, количество бактерии в дизела. Мерим заземяване, отстояние от заземителната инсталация и от гръмоотводната инсталация и др. Става дума за хиляди параметри. Това изисква голяма капиталова инвестиция в инфраструктурата по управлението и измерванията на сградата. И не само, че коства големи капиталови разходи, но и изисква много оперативно време, защото постоянно се случват събития и ние обръщаме внимание на всяко от тях.
Планирането на център за данни е съществено, защото всяко решение предопределя няколко следващи решения впоследствие. Например, можеш да решиш да изградиш електроинсталацията така, че да имаш concurrently maintainable табло. Това означава, че може да се прави поддръжка, докато всичко работи: частите могат да се вадят и подменят, без да се спира подаването на електрозахранване. Консуматорите не прекъсват работа.
В такъв случай изграждаш електроинсталацията по сложен начин и процесите, които ще измерваш и анализираш, са съвсем различни от това, което би се случвало с по-традиционния вид табло, при което всички предпазители трябва да се изключат, за да се направи поддръжка или промяна. Тогава ще трябва да си готов консуматорите да спрат работа за определено време. Ние сме изчислителен център на възлово място в света и през него преминава огромно количество трафик. Затова изхождаме от разбирането, че когато се пуснат, изчислителните центрове трябва да работят безотказно и без никакво прекъсване в продължение на десетки години.
Центровете за данни са голям консуматор на електроенергия, включително за охлаждане. Променя ли се това в днешно време?
Извървяхме дълъг път и постоянно се движим на ръба. През 90-те години се разчиташе на естествено охлаждане на сървърните помещения. Всички машини бяха поставяни в специални шкафове. Под тях имаше решетъчни подове,както и решетки над тях, за да може конвекцията да извежда топлината нагоре. Когато това стана недостатъчно се премина към принудителна конвекция с вентилатори. В последствие изчислителната и енергийна плътност толкова нараснаха, че се оказа, че с обдухването от пода към тавана е неприемливо. Тогава индустрията промени схемата.
Започнахме да използваме перфорирани врати, за да се взема въздух отпред и да се отвежда назад. Скоро ефективността и на това решение се оказа недостатъчна. Днес на всеки 18 месеца изчислителната мощ се удвоява. Енергийната консумация и нуждата от охлаждане също расте. Това е причината, поради която европейските власти се вълнуват, че нашата индустрията консумира много енергия. Тя харчи страшно много ток и апетитът є непрестанно расте.
Какви според Вас са пътищата за осигуряване на качествено и енергийно ефективно охлаждане?
През 2010 година 3DC беше първият център за данни у нас, който използва свободно охлаждане. Това означава, че когато навън е студено, вместо да работят компресори, се прави само топлообмен с външната среда. Охлаждащият флуид - етиленгликол, се циркулира така, че да се охлади от студения въздух извън сградата. Този подход пести ток, но и коства значителни капиталови разходи. Решението е 30-40% по-скъпо от обичайната охладителна инфраструктура, а възвръщаемостта на инвестицията беше 7 години. Когато решихме да построим 3DC със свободно охлаждане, всички ни се смяха. Днес свободното охлаждане в SO1 е огромно техническо предимство за нас.
Когато изградихме новия център за данни SO2 в София през 2019 година, избрахме решение за охлаждане с чиста вода. Тогава знаехме, че ще се стигне до тази тенденция. Индустрията все още не е достигнала до този етап, но се върви в тази посока. Водното охлаждане скоро ще стане мейнстрийм. Операторите, които имат малко разполагаеми финансови ресурси, няма да имат технологичната възможност да направят инвестиции за преминаване към водно охлаждане. На тях ще им остане само да обслужват, в дългосрочен план, нископлътностни инсталации на ниска температура. А това означава високи разходи за тях.
В заключение, как избрате локацията за своите центрове за данни и какво развитие очаквате?
Някога беше важно да направим изчислителния център на място, което е близо до клиентите. Ако погледнем картата на София, ще забележим, че има 1-2 места с огромна концентрация на компютърни ресурси. Затова при изграждането на 3DC ние търсехме място, което да е на кратко кабелно разстояние от всички тях, за да има техническа възможност да постигнем резервираност до основните потребители. Днес картината е различна. Нужен е голям парцел, където можем да построим сграда - земята трябва да е евтина.
Важно е да можем да си осигурим резервирано количество ток от 2-3 места. Целта ни е сградата да побере огромно количество техника. Това място няма как да е в центъра на София, не само заради цената на земята, но и защото там не можем да влезем с голям камион с машини, за да разтоварим техниката, няма как да постигнем значителна товароносимост. Нямаме право и да вдигаме шум в града значи няма как да използваме дизел-генераторите, съответно няма как да имаме дизелово стопанство. Затова сме в периферията на града. И този подход е важен, ако искаме в България да дойдат и да направят свои центрове за данни големи компании като Microsoft, Google и други.