第15回オープンソーステクノロジー勉強会に行ってきた

本日はさくらインターネットの専用サーバの中の人による,データセンターについてのあれこれ

メモと感想

  • 一般的には 1ラック 30A で,場合によっては 60A 〜 80A となることも.
  • 意外なほどデータセンターの消費電力量が多い.
  • Atomの低消費電力性はやはり優秀らしい.
  • 過密集約しないと需要に対応できない現状なんだろうか.

基本スペック

  • 一般的にはラックがすらーっと・・・・
    • 実際には裏に様々な条件やファシリティ(施設)がある
  • ファシリティ
    • 立地条件
      • 自然災害のリスク対策として,地震が少ない・台風や洪水の被害に遭わない・津波の影響を受けない場所などは避ける
      • 23区内など,利用する顧客がアクセスしやすい場所が好まれる
        • 確かに近い方が良い
    • 耐震・免震・制震
      • 地震でサーバが壊れると....
      • 建築基準法の耐震要件:震度6よりも高い,震度7を想定しているらしい.
      • 耐震
        • ビルをひたすら頑丈な作りに
      • 制震
        • 揺れを吸収するような感じ
      • 免震
        • 揺れの影響を受けないようにする
    • 電源
      • 電源を2重化
        • 商用電源(電力会社の電源)と自家発電の2系統を用意
      • 瞬断・自家発電への切替時などの対策として,UPS を入れておけば安心
    • 消化

省電力化

  • データセンターに求められているもの
    • 災害対策 + セキュリティ対策 + グリーンIT
      • つまり省電力化と発熱量の削減が求められる傾向にある.
  • 消費電力のアメリカでのデータ
    • 2006年度では,アメリカ全体の 1.5% がデータセンターの消費電力量(600億kWh)
  • 日本では IT 関連の電気料の 12% (2006年度)
    • アメリカの 1/10,比率的には全体の 0.5 %
  • データセンターの消費電力量の内訳
    • 空調が全体の 30% もある
  • 省電力化のポイント
    • 空調システムの効率化
    • IT 機器の省電力化
  • データセンターをグリーン化するような風潮
    • ファシリティの設計から見直さないと,効率的な空調・冷却はできない.

ラック冷却の効率化

    • 熱により性能の低下や品質の劣化,故障の増加に繋がる
    • 対策としては,床下空調とアイルキャッピング
  • 床下空調
    • ラックの下から冷風を吹き付けて,上で暖められた空気を排気する.
    • デメリット
      • ラック上部が冷えにくい
      • 局所的な熱だまりを十分に冷やすために,過度な冷却が必要になるので,実は効率的ではない?
      • 機材混在時に,空気の通りが悪くなる場所ができると,まずい.
    • さくらでは,冷気の流れを遮断しないように,サーバのシャーシをフレーム化した,フレームサーバを作ったそうだ.
      • 上下の仕切りは無し
      • ブレードサーバっぽく設置
        • M/B が壁にならないように
      • フレームサーバの問題点
        • スイッチなどが風を遮る場合もある
  • アイルキャッピング
    • 前面吸気,後面排気の方式
    • ラック間の通路に冷気を流し,そこから吸気
    • ラックの後ろから暖められた空気を吸気して排気する
    • 注意点や懸念など
      • 吸排気の前後をしっかり配置しないと効率が悪くなる.
      • ラック扉をメッシュタイプにする必要があるので,セキュリティの確保が困難
      • 冷暖の差が激しくなるので,作業環境としては劣悪化も?
  • Back to Back マウント
    • 1U ハーフにして,ラックに2列設置し,サーバの背面(排気面)どうしを向かい合わせることで,冷却効率を上げる.
    • アイルキャッピングと組み合わせることで,より効果的に.
    • さくらではまたもや自作するようだ.
  • 1U クォータシャーシサーバ
    • 横幅も半分にして4倍搭載できるように.
      • 1台あたりは非力にして,専用サーバに対応できる台数を.