第15回オープンソーステクノロジー勉強会に行ってきた
本日はさくらインターネットの専用サーバの中の人による,データセンターについてのあれこれ.
メモと感想
- 一般的には 1ラック 30A で,場合によっては 60A 〜 80A となることも.
- 意外なほどデータセンターの消費電力量が多い.
- Atomの低消費電力性はやはり優秀らしい.
- 過密集約しないと需要に対応できない現状なんだろうか.
基本スペック
- 一般的にはラックがすらーっと・・・・
- 実際には裏に様々な条件やファシリティ(施設)がある
- ファシリティ
省電力化
- データセンターに求められているもの
- 災害対策 + セキュリティ対策 + グリーンIT
- つまり省電力化と発熱量の削減が求められる傾向にある.
- 災害対策 + セキュリティ対策 + グリーンIT
- 消費電力のアメリカでのデータ
- 2006年度では,アメリカ全体の 1.5% がデータセンターの消費電力量(600億kWh)
- 日本では IT 関連の電気料の 12% (2006年度)
- アメリカの 1/10,比率的には全体の 0.5 %
- データセンターの消費電力量の内訳
- 空調が全体の 30% もある
- 省電力化のポイント
- 空調システムの効率化
- IT 機器の省電力化
- データセンターをグリーン化するような風潮
- ファシリティの設計から見直さないと,効率的な空調・冷却はできない.
ラック冷却の効率化
-
- 熱により性能の低下や品質の劣化,故障の増加に繋がる
- 対策としては,床下空調とアイルキャッピング
- 床下空調
- ラックの下から冷風を吹き付けて,上で暖められた空気を排気する.
- デメリット
- ラック上部が冷えにくい
- 局所的な熱だまりを十分に冷やすために,過度な冷却が必要になるので,実は効率的ではない?
- 機材混在時に,空気の通りが悪くなる場所ができると,まずい.
- さくらでは,冷気の流れを遮断しないように,サーバのシャーシをフレーム化した,フレームサーバを作ったそうだ.
- 上下の仕切りは無し
- ブレードサーバっぽく設置
- M/B が壁にならないように
- フレームサーバの問題点
- スイッチなどが風を遮る場合もある
- アイルキャッピング
- 前面吸気,後面排気の方式
- ラック間の通路に冷気を流し,そこから吸気
- ラックの後ろから暖められた空気を吸気して排気する
- 注意点や懸念など
- 吸排気の前後をしっかり配置しないと効率が悪くなる.
- ラック扉をメッシュタイプにする必要があるので,セキュリティの確保が困難
- 冷暖の差が激しくなるので,作業環境としては劣悪化も?
- Back to Back マウント
- 1U ハーフにして,ラックに2列設置し,サーバの背面(排気面)どうしを向かい合わせることで,冷却効率を上げる.
- アイルキャッピングと組み合わせることで,より効果的に.
- さくらではまたもや自作するようだ.
- 1U クォータシャーシサーバ
- 横幅も半分にして4倍搭載できるように.
- 1台あたりは非力にして,専用サーバに対応できる台数を.
- 横幅も半分にして4倍搭載できるように.