- Леонид, здравствуйте! Расскажите, почему Intel предпочитает использовать в своих дата-центрах только воздушное охлаждение?
- Во-первых, исторически так сложилось, что у компании Intel дата-центры большие, а их эффективнее охлаждать воздухом. Обеспечить подачу холодного и отвод нагретого воздуха ко всей площади серверного зала или комнаты проще и дешевле, чем подачу и отвод воды для каждой установленной там стойки.
Во-вторых, я считаю, что система охлаждения водой более уязвима. Вот, например, у нас есть большая серверная комната, которую обдувают 20 кондиционеров. Как правило, мы ставим кондиционеры в конфигурации не меньше N+1. Выйдет один кондиционер из строя - ничего страшного, у нас есть избыточность. А что произойдет при аварии водяного охлаждения стойки? Если процессоры и уцелеют, то отключения серверов практически не миновать.
Насколько мне известно, у нас в Intel проходил только один пилотный проект по использованию водяного охлаждения. Да и то только потому, что дата-центру в Израиле, где он осуществлялся, уже 20 с лишним лет. Потребность в размещении там оборудования высокой плотности (блейды и т.п.) созрела, а никакой другой альтернативы, кроме установки стоек с водяным охлаждением, не нашлось. Спроектированный давно, он не позволял без глобальной перестройки поставить оборудование высокой плотности при воздушном охлаждении.
При проектировании новых дата-центров мы сейчас ориентируемся строго на воздушное охлаждение и стойки с вытяжкой.
- А где предел возможностей воздушного охлаждения? При росте плотности серверов в стойках в обозримом будущем он еще не просматривается?
- Вообще, до сих пор существует миф, что воздухом нельзя охладить оборудование больше 15-18 кВт на стойку. Но благодаря шкафам с вытяжкой Intel в своих ЦОД'ах охлаждает и по 32 кВт на стойку.
Такие шкафы мы стараемся использовать повсеместно, для стоек как с высокой, так и с низкой плотностью оборудования. Они не намного дороже, чем обычные шкафы, а эффект обеспечивают значительно больший. При строительстве Intel нового ЦОД'а в Коста-Рике несколько лет назад, например, либо все шкафы были оснащены вытяжкой, либо применялось полное отгораживание горячих и холодных коридоров друг от друга. Тем самым нам удалось сделать практически все открытое помещение холодным коридором, а все закрытое - горячим. Соответственно, появилась возможность совершенно свободно расположить кондиционеры, поскольку их задача свелась к простому наполнению помещения холодным воздухом. Это значительно упростило проектирование размещения оборудования. Кроме того, стал не нужен фальшпол, что, в свою очередь, снизило затраты на строительство и требования к самому помещению (расстояние между перекрытиями можно сделать гораздо меньшим, например).
- В последние годы все чаще обсуждается тема повышения рабочей температуры оборудования в ЦОД'ах, как одна из мер по снижению издержек на охлаждение, улучшению экологических показателей и т.п. Компания Intel что-то делает в этом направлении? Не слишком ли рискованны подобные мероприятия?
- Intel начала применять такую практику несколько лет назад, и сейчас она распространена уже почти на все наши ЦОД'ы. Естественно, повышается температура только там, где это возможно. В итоге снижается нагрузка на систему охлаждения. К этому ведут и другие методики. Использование упоминавшихся технологий - заглушки, фальшпотолок, контейнеры, стойки с вытяжкой - все это позволяет изолировать холодную зону от горячей. При подаче воздуха нужной температуры на вход в серверы, учитывая, что он не смешивается с горячим воздухом, нагрузка на систему охлаждения ложится гораздо меньшая.
Если в ЦОД'е все построено хорошо и в инфраструктуре есть определенная избыточность (как правило, N+1), то даже при выходе из строя отдельных элементов - кондиционера, чиллера, генератора - ничего страшного не случается. Какие-то риски есть всегда, полностью от них не избавиться, но при правильном проектировании дата-центра их удается в значительной степени минимизировать.
- А можно уточнить, какой температурный режим сегодня применяется в дата-центрах Intel?
- Начнем с того, что здесь нас интересует только температура воздуха на входе в серверы. Сейчас на вход в серверы у нас подается воздух с температурой 22-24 градуса. В Intel такой режим считается оптимальным.
В Европе одной из наших партнерских компаний был построен тестовый ЦОД, в котором проводится интереснейшая работа по поиску новых решений, позволяющих оптимизировать различные затраты. Там изменяется все, что только можно представить. Например, фальшпотолок можно двигать вверх и вниз. Они пытаются найти наименее энергозатратное положение различных элементов конструкции ЦОД'а, проверяют разные режимы работы оборудования и т.п. Так вот, экспериментальным путем они выяснили, что самой оптимальной температурой воздуха для подачи в серверы является 36 градусов.
Но это экспериментальная лаборатория. Она помогает накопить полезный опыт, который потом можно будет внедрять в практику. Невозможно, конечно, моментально распространить найденные удачные решения на 91 ЦОД по всему миру.
- Конструкция шкафов с вытяжкой - это собственная разработка Intel?
- Фактически, да. Лет десять назад инженерами Intel эти конструкции были разработаны и совместно с одной компанией запущены в производство. Они не выпускаются под нашей маркой, сегодня их делают уже несколько разных компаний, и есть разные варианты таких шкафов.
Сама конструкция очень простая. Там нет никаких вентиляторов, там нечему сломаться, все работает за счет законов физики. При этом горячий воздух просто с гигантской скоростью выдувается вверх и дальше уже отводится из помещения.
- Можно ли модернизировать имеющиеся стойки, оснастив их вытяжкой?
- Вряд ли это целесообразно. Если у вас уже есть хорошие стойки, то гораздо проще и экономически выгоднее организовать контейнеры - изолированные друг от друга холодные и горячие коридоры. У нас в этом году во многих ЦОД'ах намечено провести такие работы. А что касается шкафов с вытяжкой, то это более изящное и правильное решение, но применять его лучше либо при строительстве нового ЦОД'а, либо когда по тем или иным причинам предполагается замена стоек.
Продолжение следует.
Читайте самые интересные истории ЭлектроВестей в Telegram и Viber