- Леонид, здравствуйте! Расскажите, почему Intel предпочитает использовать в своих дата-центрах только воздушное охлаждение?
-  Во-первых, исторически так сложилось, что у компании Intel дата-центры  большие, а их эффективнее охлаждать воздухом. Обеспечить подачу  холодного и отвод нагретого воздуха ко всей площади серверного зала или  комнаты проще и дешевле, чем подачу и отвод воды для каждой  установленной там стойки.
Во-вторых, я считаю, что система  охлаждения водой более уязвима. Вот, например, у нас есть большая  серверная комната, которую обдувают 20 кондиционеров. Как правило, мы  ставим кондиционеры в конфигурации не меньше N+1. Выйдет один  кондиционер из строя - ничего страшного, у нас есть избыточность. А что  произойдет при аварии водяного охлаждения стойки? Если процессоры и  уцелеют, то отключения серверов практически не миновать.
Насколько  мне известно, у нас в Intel проходил только один пилотный проект по  использованию водяного охлаждения. Да и то только потому, что  дата-центру в Израиле, где он осуществлялся, уже 20 с лишним лет.  Потребность в размещении там оборудования высокой плотности (блейды и  т.п.) созрела, а никакой другой альтернативы, кроме установки стоек с  водяным охлаждением, не нашлось. Спроектированный давно, он не позволял  без глобальной перестройки поставить оборудование высокой плотности при  воздушном охлаждении.
При проектировании новых дата-центров мы сейчас ориентируемся строго на воздушное охлаждение и стойки с вытяжкой.
-  А где предел возможностей воздушного охлаждения? При росте плотности  серверов в стойках в обозримом будущем он еще не просматривается?
-  Вообще, до сих пор существует миф, что воздухом нельзя охладить  оборудование больше 15-18 кВт на стойку. Но благодаря шкафам с вытяжкой  Intel в своих ЦОД'ах охлаждает и по 32 кВт на стойку.
Такие шкафы  мы стараемся использовать повсеместно, для стоек как с высокой, так и с  низкой плотностью оборудования. Они не намного дороже, чем обычные  шкафы, а эффект обеспечивают значительно больший. При строительстве  Intel нового ЦОД'а в Коста-Рике несколько лет назад, например, либо все  шкафы были оснащены вытяжкой, либо применялось полное отгораживание  горячих и холодных коридоров друг от друга. Тем самым нам удалось  сделать практически все открытое помещение холодным коридором, а все  закрытое - горячим. Соответственно, появилась возможность совершенно  свободно расположить кондиционеры, поскольку их задача свелась к  простому наполнению помещения холодным воздухом. Это значительно  упростило проектирование размещения оборудования. Кроме того, стал не  нужен фальшпол, что, в свою очередь, снизило затраты на строительство и  требования к самому помещению (расстояние между перекрытиями можно  сделать гораздо меньшим, например).
- В последние годы все  чаще обсуждается тема повышения рабочей температуры оборудования в  ЦОД'ах, как одна из мер по снижению издержек на охлаждение, улучшению  экологических показателей и т.п. Компания Intel что-то делает в этом  направлении? Не слишком ли рискованны подобные мероприятия?
-  Intel начала применять такую практику несколько лет назад, и сейчас она  распространена уже почти на все наши ЦОД'ы. Естественно, повышается  температура только там, где это возможно. В итоге снижается нагрузка на  систему охлаждения. К этому ведут и другие методики. Использование  упоминавшихся технологий - заглушки, фальшпотолок, контейнеры, стойки с  вытяжкой - все это позволяет изолировать холодную зону от горячей. При  подаче воздуха нужной температуры на вход в серверы, учитывая, что он не  смешивается с горячим воздухом, нагрузка на систему охлаждения ложится  гораздо меньшая.
Если в ЦОД'е все построено хорошо и в  инфраструктуре есть определенная избыточность (как правило, N+1), то  даже при выходе из строя отдельных элементов - кондиционера, чиллера,  генератора - ничего страшного не случается. Какие-то риски есть всегда,  полностью от них не избавиться, но при правильном проектировании  дата-центра их удается в значительной степени минимизировать.
- А можно уточнить, какой температурный режим сегодня применяется в дата-центрах Intel?
-  Начнем с того, что здесь нас интересует только температура воздуха на  входе в серверы. Сейчас на вход в серверы у нас подается воздух с  температурой 22-24 градуса. В Intel такой режим считается оптимальным.
В  Европе одной из наших партнерских компаний был построен тестовый ЦОД, в  котором проводится интереснейшая работа по поиску новых решений,  позволяющих оптимизировать различные затраты. Там изменяется все, что  только можно представить. Например, фальшпотолок можно двигать вверх и  вниз. Они пытаются найти наименее энергозатратное положение различных  элементов конструкции ЦОД'а, проверяют разные режимы работы оборудования  и т.п. Так вот, экспериментальным путем они выяснили, что самой  оптимальной температурой воздуха для подачи в серверы является 36  градусов.
Но это экспериментальная лаборатория. Она помогает  накопить полезный опыт, который потом можно будет внедрять в практику.  Невозможно, конечно, моментально распространить найденные удачные  решения на 91 ЦОД по всему миру.
- Конструкция шкафов с вытяжкой - это собственная разработка Intel?
-  Фактически, да. Лет десять назад инженерами Intel эти конструкции были  разработаны и совместно с одной компанией запущены в производство. Они  не выпускаются под нашей маркой, сегодня их делают уже несколько разных  компаний, и есть разные варианты таких шкафов.
Сама конструкция очень  простая. Там нет никаких вентиляторов, там нечему сломаться, все  работает за счет законов физики. При этом горячий воздух просто с  гигантской скоростью выдувается вверх и дальше уже отводится из  помещения.
- Можно ли модернизировать имеющиеся стойки, оснастив их вытяжкой?
-  Вряд ли это целесообразно. Если у вас уже есть хорошие стойки, то  гораздо проще и экономически выгоднее организовать контейнеры -  изолированные друг от друга холодные и горячие коридоры. У нас в этом  году во многих ЦОД'ах намечено провести такие работы. А что касается  шкафов с вытяжкой, то это более изящное и правильное решение, но  применять его лучше либо при строительстве нового ЦОД'а, либо когда по  тем или иным причинам предполагается замена стоек.
Продолжение следует.
Читайте самые интересные истории ЭлектроВестей в Telegram и Viber
