ЦОД в світі: що нового?

Ігор КИРИЛЛОВ, • «МЕРЕЖІ І БІЗНЕС» • №6 (85) 2015 •

Світ дата-центрів активно розвивається. Зростає Інтернет - ростуть і ЦОДи, а значить, нові технології в цій сфері з'являються і будуть ще з'являтися. Ми тільки на самому початку шляху. Що ж нового приніс 2015 рік?

Прогнози - справа невдячна, але коли мова йде про самому найближчому майбутньому, то деякі тенденції все ж можна передбачити. Адже в такому випадку мова йде вже не стільки про майбутнє, скільки сьогоденні, яке просто ще не для всіх стало очевидним. У сфері дата-центрів деякі напрямки розвиваються настільки активно, що сміливо можна стверджувати - буквально в наступному році вони можуть стати домінуючими. Йдеться як про нові розробки в сфері інженерної інфраструктури, так і про те, що змінюються самі підходи до побудови та експлуатації дата-центрів. Про деякі найбільш цікавих тенденції, які намітилися в 2015 році і очевидно вплинуть на розвиток галузі в 2016-2017-х, ми і поговоримо.

Інтернет як двигун індустрії

Ринок дата-центрів невіддільний від Інтернету. Власне сьогоднішнє стрімкий розвиток світової мережі неможливо без потужних обчислювальних вузлів, в ролі яких по всьому світу виступають ЦОДи. Особливо актуально це твердження в контексті таких явищ, як IoT, або мобільний Інтернет. Якщо з першої концепцією ще не все очевидно (вона дуже перспективна в теорії, але ще не набрала всесвітнього розмаху), то в разі поширення мобільних терміналів, таких як смартфони та планшети, просто необхідні централізовані обчислювальні центри, оскільки призначені для користувача пристрої - відносно малопотужні, а адже Інтернет не обмежується тільки ними. Є ще корпоративні «хмари», медичні та промислові системи, всілякі датчики, нарешті, фіксовані користувачі. В цілому тільки на території США діють понад 50 тис. Дата-центрів.

До того ж, за деякими даними, до 75% всього трафіку в мережі - це відео, яке вкрай вимогливо до серверів, СГД, мережевої інфраструктури. В результаті аналітична компанія 451 Research зробила висновок, що в 2016 році світовий ринок комерційних дата-центрів виросте як мінімум на 11% в порівнянні з роком нинішнім, і такі темпи зростання збережуться до 2018 року. Основу для таких райдужних прогнозів дав результат опитування тисячі ІТ-фахівців по всьому світу, які займаються експлуатацією ЦОД. Що характерно, 64% експертів, опитаних в ході дослідження, заявили, що використовують у своїй роботі в основному комплексні рішення Schneider Electric, 33% повідомили, що віддають перевагу продукції Emerson Network Power, і лише 3% вибрали щось інше. У той же час, за даними дослідження, Emerson лідирує в списку світових виробників систем охолодження для датацентрів (їх вважають за краще майже 60% опитаних експертів), друге місце посіла компанія Johnson Controls, маловідома на українському ринку рішень для ЦОД, але добре зарекомендувала себе в світі , на третьому рядку - SE.

Найбільшим світовим оператором комерційних дата-центрів сьогодні є компанія Equinix, яка володіє більш ніж сотнею ЦОД корисною площею понад 1 млн кв. м на всіх населених континентах, приблизно таким же ресурсом володіє Digital Realty Trust - другий номер у світовому рейтингу. Також до числа найбільших операторів належать Verizon, Savvis, DuPont Fabros Technology (DFT) та інші.

Крупніше, більше, могутніше! Дата-центри в Європі

Одна з основних тенденцій, яка відчувається сьогодні на світовому ринку дата-центрів, - це укрупнення проектів. Ще пару років тому одиничний ЦОД площею 100 тис. Кв. м або потужністю в 100 МВт сприймався як фантастичне рішення. Але вже в 2015 році про будівництво проектів подібних циклопічних масштабів заявили відразу кілька організацій. Причому не так вже й далеко. Наприклад, влітку с. м компанія BitFury почала будівництво дата-центру потужністю 100 МВт в Грузії. Його основне завдання - видобуток (Майнінг) «криптовалюта» біткоіни. Проект отримав назву «Грузинський технологічний парк» (Georgian Technology Park).

Якщо така ідеологія себе виправдає - це дасть поштовх до появи все більшого числа гігантських дата-центрів в майбутньому. Природно, подібні проекти вимагають створення з нуля всієї супутньої інфраструктури. Для них будують навіть окремі електростанції і міні-ТЕЦ. Якщо так піде і далі, то, очевидно, «мега-датацентри» найближчого майбутнього вже зажадають розвитку малої атомної енергетики. Про деякі найбільш цікавих і «свіжих» проектах, які почали впроваджуватися в 2015 році, слід сказати окремо.

Одним з «гучних» рішень останнього часу став дата-центр Lefdal Mine, який будується сьогодні в Норвегії. Тут цікаво і саме місце, і технічні нюанси реалізації. Комплекс буде розташований в занедбаних вироблених гірських рудниках на заході країни між портовими містами Молей і Нордфьордейд. Для охолодження тут вже немає нічого кращого, ніж застосовувати холодну воду прилеглих фіордів. З електропостачанням теж ніяких проблем - поруч потужні ГЕС. В результаті повинен вийти такий собі багаторівневий «мурашник» загальною корисною площею понад 120 тис. Кв. м (майже двадцять п'ять футбольних полів) що зробить його найбільшим датацентрі в Європі (рис. 1), який, до того ж, планується сертифікувати по Tier III.

Ігор КИРИЛЛОВ, • «МЕРЕЖІ І БІЗНЕС» • №6 (85) 2015 •   Світ дата-центрів активно розвивається

Мал. 1. Норвезька дата-центр Lefdal Mine - приблизний план приміщень і фото з об'єкту (в правому кутку видно мікроавтобус)

Але настільки гігантська цифра - це потенціал комплексу, заповнювати який планується поступово. Реалізацією проекту, завершити який передбачається в серпні 2016 року, займаються компанії IBM і Fridholm Loh Group (якій належить торгова марка Rittal). На першому етапі реалізована лише одна відносно невелика черга, яку займають поки лише самі компанії-творці. Надалі розвинену мережу штолень планується заповнювати клієнтськими модулями, які будуть виконані у вигляді переднастроєних контейнерів Rittal. При цьому розміри комплексу дозволяють підвозити модулі до місця установки безпосередньо на вантажівках. Як очікується, повністю працює індивідуальний контейнер замовник зможе отримувати в своє розпорядження за 1,5-2 місяці.

В цілому також відчувається загальносвітова тенденція перенесення великих дата-центрів ближче до полярного кола, до Скандинавії. Судячи з почався недавно масштабних проектів, тільки в Норвегії загальна площа комерційних дата-центрів виросте в півтора рази за найближчі два роки. Зарубіжні інвестори готові вкладати в розвиток дата-центрів регіону до $ 1 млрд на рік. При цьому світові лідери ІТ-галузі активно будують тут свої дата-центри - Apple в Данії, Google і Yandex в Фінляндії, Facebook в Швеції. Що, загалом, не дивно, з огляду на прохолодний клімат, який підходить для вільного охолодження, і низьку вартість електроенергії, що становить в деяких регіонах Норвегії та Швеції близько 3-4 євроцентів за 1 кВт * год, що вчетверо нижче, ніж в інших країнах Західної Європи ( в середньому 12-16 євроцентів).

Компанія Lefdal Mine - не єдиний любитель екзотичних місць для розміщення комерційних ЦОД. Так, канадський оператор Teslagistics в жовтні 2015 року заявив про підготовку до будівництва нового дата-центру, який буде розміщений в занедбаних військових бункерах колишньої військової авіабази на о. Ньюфаундленд. Місце розташування об'єкта обрано не випадково - поряд з островом проходить цілий ряд найважливіших підводних кабелів міжнародного зв'язку, а крім того, прохолодний клімат і наявність водних ресурсів для охолодження теж грають свою роль. Крім того, уряд регіону активно розвиває тут вітряні електростанції. Цікаво, що в рамках комплексу буде застосована система иммерсионного охолодження ІТ-обладнання Green Revolution Cooling (рис. 2). Сервери занурять в ванни з діелектричним маслом ElectroSafe. Така схема, за даними розробників, дозволить підняти ефективність системи охолодження в сотні разів в порівнянні з традиційними рішеннями.

Мал. 2. Система иммерсионного охолодження серверів Green Revolution Cooling в дії

В цілому енергоефективність нових дата-центрів, особливо в ЄС і США, постійно зростає. Так, в Шотландії незабаром буде запущений комплекс DataVita, що забезпечує PUE на рівні 1,18. Але чи варто воно того, поки незрозуміло, адже при всій корисної площі близько 9 тис. Кв. м комплекс, за незалежними оцінками, обійшовся власнику більш ніж в $ 300 млн, або приблизно $ 100 тис. в розрахунку на стійку. Можна собі уявити, у скільки обійдеться оренда хоча б однієї шафи в такому комплексі, щоб власники не тільки повернули витрати, але і отримали прибуток.

США і Азія «розігрівають» ринок

Якщо в Європі ЦОД площею 120 тис. Кв. м відразу може стати найбільшим на континенті, то в США ЦОД подібного розміру вже є, але, головне, вони продовжують з'являтися. Новий масштабний об'єкт незабаром реалізує оператор RagingWire, який в жовтні 2015 року розпочав будівництво дата-центру площею 100 тис. Кв. м і потужністю 80 МВт в штаті Техас. Комплекс буде являти собою кампус, розташований на площі в 18 гектарів. Він має запрацювати восени 2016 року. Цікаво в цьому проекті те, що RagingWire вже має аналогічну за розмірами і потужності майданчик, яка розташована в Північній Каліфорнії, але стрімке зростання світового ринку дата-центрів підштовхнув оператора подвоїти бізнес.

Власний ЦОД площею понад 120 тис. Кв. м будує і Google. Але тут мова йде про масштабне розширення, а не про створення об'єкта з нуля. Існуючий датацентр в агломерації Атланти (штат Джорджія, США) буде збільшено на 45 тис. Кв. м корисної площі. При цьому мова, швидше за все, йде про будівництво багатоповерхового будинку. Це, до речі, ще одна тенденція світового ринку датацентров - у міру появи гігантських комплексів вони починають рости не тільки в ширину, але і в висоту. Що стосується Google, то компанія на сьогоднішній день володіє тринадцятьма дата-центрами в різних регіонах світу.

Якщо «стотисячника» Америку не здивуєш, то проект, запропонований компанією Switch, в разі його реалізації стане гігантським навіть для США. Провайдер планує побудувати в місті Ріно найбільший в світі дата-центр SuperNAP корисною площею 650 тис. Кв. м! Уявити такий масштаб дуже складно - це в півтора рази більше, ніж площа Тяньаньмень в Пекіні. Загальна вартість проекту (впроваджувати який планується, природно, поетапно) як очікується, складе $ 3 млрд. Таким чином, це буде ще і найдорожчий ЦОД в світі. Для нього буде створена окрема підстанція потужністю 300 МВт. Першим клієнтом комплексу стане eBay, перша черга площею 111 тис. Кв. м буде введена в експлуатацію в наступному році. Крім усього іншого, компанія Switch активно бере участь у розвитку відновлюваної енергетики. Так, оператор вклав гроші в будівництво сонячної електростанції потужністю 100 МВт в Неваді, яка повинна бути запущена вже скоро.

Також треба відзначити, що Ріно (штат Невада), де планується запуск найбільшого в світі дата-центру SuperNAP, - дуже відомий американський місто. Колись, ще до підйому Лас-Вегаса, він був «гральної столицею» США, а зараз тут розташований величезний кампус дата-центрів Apple, а також ведеться будівництво фабрики Tesla з виробництва акумуляторів.

Потужним драйвером розвитку світового ринку ЦОД в останні кілька років є Південно-Східна Азія. Тут кількість нових гігантських майданчиків зростає стрімко. Наприклад, Digital Realty будує в Сінгапурі другий дата-центр, завершити який планується на початку 2016 року, а Equinix - вже третій. Тут же, на острові, влаштувався і Google, який, зважаючи на брак вільних ділянок за адекватною ціною, почав будувати перший в своїй практиці багатоповерховий ЦОД. Дата-центри в Азії будують для максимального фізичного наближення веб-сервісів до величезного ринку місцевих користувачів, при цьому саме Сінгапур є тією точкою, де перетинаються основні телекомунікаційні магістралі світу, що з'єднують Схід і Захід. Цим і пояснюється популярність регіону. Також «гарячими точками» є Китай (конкретно Гонконг), Індонезія, Японія. Тут зростання сегмента комерційних ЦОД значно випереджає середньосвітовий.

Новини мікросвіту

У той час як в сегменті комерційних датацентров спостерігається глобальна тенденція до укрупнення масштабів, корпоративні ЦОДи намагаються ущільнитися. Це цілком природно, враховуючи активне проникнення «хмарних» послуг в сферу бізнесу. Значний обсяг другорядних даних віддається на обробку зовнішніх провайдерам, в той час як найважливіша інформація не покидає власного дата-центру організації. Але для виконання завдань другого типу часто вже не потрібен величезний ЦОД, зате багатьом хотілося б мати компактний і енергоефективне рішення. Цим пояснюється тенденція розвитку мікро-ЦОД - невеликих ІТ-комплексів, оснащених усіма інженерними підсистемами і обчислювальними системами високої щільності. Розмір таких рішень зазвичай не більше одного 42U шафи, але в багатьох випадках і набагато менше. Обчислювальна потужність сучасних серверів і ємність СГД сьогодні такі, що такий «коробочки» часто цілком достатньо для роботи організації середнього масштабу за умови використання гібридного «хмари».

За даними аналітичної компанії MarketsandMarkets, до кінця 2015 року обсяг світового сегмента мікро-ЦОД складе не менше $ 1,7 млрд, але вже через п'ять років зросте майже вчетверо - до $ 6,3 млрд. Основними гравцями в даному сегменті є Schneider Electric (після придбання AST Modular), Rittal, Dell, Panduit, SGI, Huawei, а також такі маловідомі в Україні виробники, як Canovate, Elliptical, Wave-2-Wave, Zellabox. Випуск таких рішень вже освоїли і в РФ, їх виробляють компанії «РСК», ETergo (спільно з «Утілекс» і «Зв'язок Інжиніринг») і деякі інші. В цілому це досить цікавий і перспективний напрямок діяльності, яке цілком під силу освоїти і українським інтеграторам.

В цілому тема мікро-ЦОД гідна окремої статті, оскільки тут часто застосовуються не зовсім стандартні рішення, і зараз багато виробників все ще знаходяться в пошуку оптимальної моделі. В результаті з'являються такі дивовижні рішення, як Mobyl (рис. 3) - «дата-центр в валізі», розроблений компанією Arnouse Digital Devices Corp на замовлення Міністерства оборони США, але з кінця 2015 року вже доступний і для комерційних замовлень (і попит на них є).

Мал. 3. Дата-центр у валізі, розроблений Arnouse Digital Devices Corp на замовлення Міноборони США

Рішення оснащено незалежною системою електроживлення (яка займає мало не половину корисного простору) і всілякими інтерфейсами зв'язку (в т.ч. бездротовими). Час автономної роботи складає до восьми годин в активному режимі і до тижня в положенні stand by. АКБ замінюються в гарячому режимі. Обчислювальну потужність забезпечують одинадцять мікро-серверів, кожен з яких оснащений 8-ядерним процесором Intel Xeon E3845 і 16 ГБ оперативної пам'яті. Внутрішня СГД використовує SSDнакопітелі загальним обсягом майже 3Тб, можливо також підключення додаткового модуля на 12 ТБ.

Власне ці сервери і є головною «військовою таємницею» - технологія їх виготовлення тримається в секреті. Відомо лише, що вони поміщені в герметичний епоксидний корпус, який дозволяє обладнанню «пережити» короткочасний вплив до 300g (вибухова хвиля) і діапазон робочих температур від -40 до + 110 ° C. Але в іншому все компоненти - стандартні, включаючи ОС (Windows або Linux) і ПО віртуалізації VMware, так що рішення цілком підходить для комерційного використання, про що і заявляє виробник.

Як показує аналіз світових проектів, замовники корпоративних ЦОД все менше хочуть возитися з побудовою унікальних рішень, віддаючи перевагу контейнерним системам. Про тенденції в цьому перспективному напрямку ми досить детально писали в статті «Модульні дата-центри - вже в Україні!» (СІБ №3, 2015). Тут лише зазначимо, що розвиток триває - контейнерні і модульні системи все активніше займають свою нішу на ринку. Одним з цікавих наслідків стала поява сервісу оренди контейнерів. Мова йде не про послуги комерційних дата-центрів, а про те, що клієнт може взяти в оренду повноцінний ЦОД в контейнері і встановити його на своїй території.

Подібну послугу пропонує компанія Cannon Technologies. В рамках договору оренди поставляються модулі Globe Trotter в стандартному морському контейнері довжиною 20 або 40 футів (подібні розміри є принциповими, оскільки дозволяють перевозити ЦОД за більшістю доріг без спеціальних дозволів). Усередині використовуються стандартні інженерні компоненти і стійки 19 ''. Все налаштоване «під ключ» відповідно до вимог замовника, опціонально може бути встановлено навіть ІТоборудованіе. Щільність розміщення обладнання стандартна - близько 5-6 кВт на стійку (при необхідності і більше). При цьому комплекс функціонує в діапазоні робочих температур від -46 до +58 ° C. Мінімальний термін оренди - один рік.

Охолодження: жодної калорії даром!

Ефективне охолодження датацентрів набуває все більш критично значення. По-перше, це найбільш витратна інженерна підсистема, що впливає на PUE, і, по-друге, у міру зростання масштабів ЦОД традиційні схеми перестають бути актуальними. Потрібні нові технології і підходи. Не дивно, що в цьому контексті знаменита Американська асоціація інженерів з опалення, охолодження та кондиціювання повітря (American Society of Heating, Refrigerating and Air-Conditioning Engineers), більш відома як ASHRAE, проявила в 2015 році підвищену активність, напевно, найвищу за останні п'ять років. Так, був оновлений збірник рекомендацій з проектування, побудови та експлуатації кліматичних систем в різних будівлях, в т.ч. ЦОД. У документі під назвою «ASHRAE Handbook 2015 - HVAC Applications» з'явилося дві нові глави - 61-я присвячена інфраструктурі т.зв. «Розумних будинків» (Smart Building Systems), в 62-й розглядаються системи управління вологістю всередині приміщень (Moisture Management in Buildings). До того ж глава №19, яка присвячена охолодженню в дата-центрах (Data Centers and Telecommunication Facilities), була повністю переписана з урахуванням останнього досвіду і появи нових технологій.

Однак найбільш важливим результатом роботи Асоціації в 2015 році стала поява проекту нового стандарту по системам охолодження для ЦОД - ASHRAE 90.4. В остаточній редакції він ще не прийнятий, але вже викликав серйозні розбіжності в галузі. Головним чином тому, що один з варіантів вимог до систем охолодження заснований на досягненні дата-центром коефіцієнта PUE відповідно до приналежністю до певного кліматичного регіону (табл. 1). На думку учасників ринку, подібний підхід занадто жорсткий і не цілком виправданий.

Таблиця 1. Вимоги до PUE, відмічені в стандарті ASHRAE 90.4 для дата-центрів в кліматичних регіонах відповідно до класифікації Асоціації

Однак допомагають в досягненні хороших показників PUE і виробники обчислювальних систем. Зокрема, випускається все більше серверів, здатних постійно працювати при температурі подається холодного повітря набагато вище 25 ° С. Наприклад, Кріс Моллой, заслужений інженер IBM, заявив про те, що на його думку, незабаром має з'явитися ІТ-обладнання, здатне нормально працювати при температурі в холодному коридорі понад 37 ° С.

Що стосується безпосередньо нових розробок, то в їх числі варто відзначити систему рідинного охолодження LCOP (Liquid Cooled Open Compute) компанії AQuarius. Розробники пішли самим логічним шляхом - максимально наблизити охолоджуючі елементи до найгарячіших точках ІТ-обладнання. Спеціальні теплообмінні пластини TouchIt встановлюються безпосередньо на материнські плати серверів і контактують із зовнішнім рідинним контуром, якому передають надлишкове тепло (при цьому робоча температура води може досягати 30 ° С). За даними розробників, така схема дозволить домогтися PUE на рівні 1,05. Поки що система, що з'явилася на ринку в кінці осені 2015 року, підходить скоріше для суперкомп'ютерів, оскільки дозволяє охолодити до 216 фізичних процесорів в розрахунку на одну стійку, але у неї вже є перший замовник - дата-центр Innava (США).

Відзначимо, що подібні рішення повинні будуть витримувати конкуренцію з боку ще більш інноваційних розробок в сфері иммерсионного охолодження, прикладів якого з'являється останнім часом все більше. Так, крім відомої платформи Green Revolution Cooling є також рішення Iceotope PetaGen, Allied Control (куплена BitFury) та інші.

Відзначимо, що нинішні технології иммерсионного охолодження теоретично дозволяють відвести від стійки до 250 кВт тепла, але навіть при такому феноменально високому показнику до фізичної межі технології ще далеко. З більш «приземлених» розробок все більшої популярності набувають різні варіанти адіабатичного охолодження, фрікулінга і економайзерів.

Ще однією важливою світовою тенденцією року, що минає є прагнення утилізації «теплових відходів». Вона стала прямим наслідком укрупнення дата-центрів, про який говорилося вище. Шкода «викидати» таке колосальне кількості тепла. Так, ЦОД потужністю 1 МВт міг би опалювати кілька багатоповерхових будинків, 10 МВт - столичний мікрорайон, 100 МВт - ціле місто обласного значення (за умови, що зима буде не дуже холодною). Це, звичайно, в теорії, але масштаб втрат можна собі уявити. Тому сучасні комерційні дата-центри (а саме вони є найбільш величезними) намагаються будувати відразу з комплексом офісних будівель, які допомагають утилізувати тепло, відведений від ІТ-обладнання. За допомогою теплових насосів воно направляється головним чином на обігрів приміщень і нагрівання води.

Цікаво, що при цьому дата-центри необов'язково повинні бути власними. Як приклад можна привести новий офісний кампус Amazon Denny Triangle (рис 4), який повинен незабаром розпочати свою роботу. Вибираючи місце дислокації об'єктів нерухомості, компанія зупинилася на ділянці поряд з будівлею біржі Вестин в Сіетлі (США).

Вибираючи місце дислокації об'єктів нерухомості, компанія зупинилася на ділянці поряд з будівлею біржі Вестин в Сіетлі (США)

Мал. 4. Візуалізація моделі нового офісного кампуса Amazon Denny Triangle в Сіетлі

Справа в тому, що за своїм первісним призначенням ця будівля давно не використовується, зате тут розташувався потужний регіональний телекомунікаційний вузол, а з 36 тис. Кв. м загальної площі близько 25 тис. кв. м використовується під різні дата-центри. Природно, що така маса ІТ-обладнання виділяє мегавати тепла, яке просто гріє навколишнє повітря. Amazon вирішив скористатися ситуацією і впровадив систему, яка дозволить забирати частину «теплових відходів» і направляти їх на обігрів офісного комплексу Denny Triangle, загальна площа якого по завершенні будівництва в 2016 році складе 350 тис. Кв. м. Суть технології полягає в тому, що в підвалі будівлі біржі розташовані труби великого діаметру, по яких циркулює вода, що нагрівається теплом, виділеним обладнанням ЦОД (рис. 5).

Мал. 5. Фрагмент системи передачі тепла від будівлі біржі Вестин - кампусу Amazon Denny Triangle. На фото Адам Майерс - один з менеджерів проекту з боку компанії McKinstry, яка допомогла здійснити проект

Потім рідина проходить через особливі теплообмінники, які в свою чергу нагрівають воду, що подається в будівлі Denny Triangle. При цьому Amazon готовий утилізувати лише близько 45% тепла, що виділяється - більше просто не потрібно, так що залишок можуть використовувати і інші будівлі цієї діловій частині міста (якщо, звичайно, хтось ще зважиться на такий експеримент).

Шафова «революція»

Як відомо, шафа - важливий елемент будь-якого дата-центру. Його значення часто недооцінюється людьми, далекими від сфери ЦОД. Але саме шафа безпосередньо забезпечує збереження і підтримує працездатність ІТ-обладнання. Наприклад, неправильно підібраний конструктив може значно знизити фактичну ефективність системи охолодження або, скажімо, пожежогасіння. Тема шаф настільки актуальна, що їй присвячена окрема велика стаття під назвою «Шафи-2015 - там, за хмарами», розміщена в цьому ж номері «СІБ». Зараз же ми відзначимо лише пару цікавих тенденцій, що намітилися в цій сфері.

Так, виробники конструктивів все активніше придивляються до «марної простору» - як відомо, ширина стандартного шафи становить 24 дюйма, а внутрішньої стійки лише 19 дюймів, відповідно, цілих п'ять дюймів залишаються незадіяними. У ряді випадків це «зайве» простір необхідно, наприклад, якщо використовується потужне мережеве обладнання, вентилятори якого забирають охолоджене повітря збоку. Але в переважній більшості випадків воно ніяк не використовується. Нова тенденція полягає в тому, що в ці бічні 5 дюймів почали встановлювати PDU, що не крадуть корисного простору в стійці (т.зв. Zero Unit PDU). Однією з перших компаній, що запропонували таке рішення, ще кілька років тому стали Rittal і Emerson Network Power. Сьогодні цей напрям активно розвивається і підтримується іншими виробниками, зокрема, General Electric, яка в жовтні 2015 року виводить на ринок шафи Edge Cabinet, оснащені 0U PDU. Цікаво тут те, що окремі виробники, зокрема, та ж GE, активно вивчають можливість розміщення в «зайвому» просторі не тільки електричного, але і компактного ІТ-обладнання, наприклад мікросерверів. За деякими даними, розробки в цьому напрямку вже ведуться, і, можливо, такі рішення з'являться вже в 2016 році.

Крім того, виробники не втомлюються вдосконалювати рухливі механічні елементи шаф - замки і петлі. Так, в кінці літа с. м Belden випустила шафи з новими «революційними» запатентованими петлями Secure Hinge (рис. 6), які не тільки повертаються в двох напрямках (зліва направо / справа наліво), але і дозволяють відкривати дверцята шафи на 180⁰ навіть в тому випадку, коли він варто в середині ряду, якщо ж конструкція розміщена скраю, то кут відкриття дверей становить 270⁰.

Мал. 6. Нові патентовані дверні петлі Belden Secure Hinge розроблені спеціально для шаф, що розміщуються в ЦОД

Але якби питання нових розробок в «шафовому» сегменті вичерпувався лише компонуванням PDU та петлями, то, напевно, говорити було б про що. Набагато більш цікава розробка - Vapor Chamber, яку в 2015 році представив стартап Vapor IO. Суть рішення полягає в нетрадиційній, «револьверної» схемою розміщення стійок з обладнанням. Концепція рішення базується на побудові особливої ​​циліндричного конструктиву діаметром близько трьох метрів, в який по колу встановлюється шість трапецієподібних стійок, кожна з яких розрахована на 25 кВт потужності (рис. 7).

Мал. 7. Система компонування стійок з обладнанням для ЦОД Vapor Chamber: а) в зібраному вигляді; б) внутрішній устрій; в) креслення трапецієподібної стійки

В результаті досягається більш висока щільність розміщення обладнання, ніж при використанні традиційних шаф. Так, шість стійок, що знаходяться в «касеті» Vapor Chamber, вимагають близько 10 кв. м вільного місця в ЦОД, в той час як аналогічна кількість звичайних шаф займуть приблизно 18 кв. м. При цьому система встановлюється прямо на стяжку і не вимагає фальшпідлоги. Холодне повітря для обладнання забирається в передній панелі - із загального залу, нагріте повітря відводиться по спеціальній трубі за фальшпотолок (рис. 8).

Мал. 8. Схема охолодження стійок Vapor Chamber - синім кольором позначені потоки холодного повітря, червоним - гарячого

Як уточнюють розробники, така система буде корисна в першу чергу для дата-центрів потужністю до 100 МВт і на більш потужних комплексах її застосування недоцільно. До того ж декларується зовсім вже фантастичний факт - мовляв, за допомогою такого рішення вдасться досягти реалізації дата-центру на рівні PUE 1,1.

Але в це, якщо чесно, не дуже віриться. Як би там не було, у компанії Vapor вже є як мінімум один великий замовник - американський «хмарний» провайдер Union Station Technology Center. Якщо на практиці технологія добре себе зарекомендує, без сумніву, вона буде підтримана і іншими дата-центрами, причому не тільки в США. До того ж, очевидно, незабаром з'являться клони рішення від відомих китайських виробників, і не тільки від них.

Літій, іони і постійний струм

У сфері електричних компонент для дата-центрів слід відзначити дві найбільш явні тенденції - зростання популярності літій-іонних АКБ в джерелах безперебійного живлення, а також спроби використання постійного струму для живлення устаткування ЦОД (рис. 9).

9)

Мал. 9. ІБП для ЦОД виробництва Lite-On Power System Solutions за рахунок використання Li-ion АКБ дозволяє встановити до 25 кВт потужності (22,5 кВт з урахуванням резервування N + 1) при власній висоті 2U

Перший тренд стимулюють відразу кілька факторів - по-перше, Li-ion батареї перевершують традиційні свинцево-кислотні АКБ майже за всіма параметрами (крім ціни), а по-друге, їх вартість, як очікується, незабаром повинна значно знизитися в зв'язку з розвитком ринку електромобілів і будівництвом акумуляторної фабрики Telsa. До того ж світові лідери галузі інженерної інфраструктури ЦОД поступово впроваджують в уми потенційних споживачів ідею про переваги літій-іонних джерел живлення. Використання постійного струму в дата-центрах усуває необхідність подвійного перетворення енергії, що, в свою чергу, знижує втрати електроенергії. На малопотужних об'єктах цей факт, очевидно, не грає ролі, але у величезних комплексах, розрахованих на десятки МВт енергоспоживання, економія може бути істотною, а сервери цілком здатні працювати безпосередньо від мережі постійного струму. Але є один недолік в застосуванні систем постійного струму - необхідність використання громіздких і дорогих шинопроводів з міді, адже споживана величина струму (при еквівалентній потужності) зростає приблизно в чотири рази. Це означає, що потрібно видозмінити конструкцію серверних шаф, які при цьому зростуть в ціні. Резервування також стане складніше здійснити. Адже одна справа - перевірені часом рішення змінного (220) струму і зовсім інше - постійний струм. У будь-якому випадку перехід зажадає істотних капіталовкладень, що відразу ж видаляє з процесу модернізації все відносно невеликі дата-центри. Схоже, що системам постійного струму в ЦОД уготована доля нішевих рішень, по крайней мере в найближчі роки.

Хоча описаними вище тенденціями все новости галузі дата-центрів не обмежуються, проте вони дають можливість побачити, куди рухаються технології, а разом з ними і світовий ринок інженерних рішень для ЦОД. Коротенько ситуація така - укрупнення, ущільнення, енергоефективність!

Ігор КИРИЛЛОВ, СіБ

Якщо Ви знайшли помилку в тексті, то виділіть її мишкою і натисніть Ctrl + Enter або Натисніть тут .

Що ж нового приніс 2015 рік?
Новости
Слова жизни
Фотогалерея