2008年12月23日火曜日
米国IT(green IT, Cloud comptuingその他)の記事
私のFacebookに米国IT(green IT, Cloud comptuingその他)の記事を毎日見出しだけですが、投稿しています。ご興味のある方はFacebookでFriendになってください。但し、記事は英文のみで、解説はしていません。見出しを見るだけでも、米国のITの動きが分かります。
ご希望の方はzk.eco.news at gmail.comまで。
ご希望の方はzk.eco.news at gmail.comまで。
残りの2008年12月
日本は暮れも押し詰まってきました。アメリカでは、この週から1月5日まで休む人が多いです。というわけで、少なくともこのブログの英語版は1月5日までお休みです。日本語版は毎日できるか分かりませんが、続けます。
2008年12月21日日曜日
Dellの2階建てコンテナ
コンテナ型のデータセンターがMSやその他の会社から提案されてます。コンテナは一番小さなコンポーネントをそれぞれの機器からそういった機器が一杯詰まったコンテナに移すというわけです。冷却や電力搬送の効率も良くなるという訳です。Dellの版は2階建てで、下がIT機器で上が電力、冷却の機器だとか。これだと、ITの人は下のコンテナで、上のコンテナはファシリティが管理と棲み分けができると。Dellはコモディティ化を望むのではなく、用途やユーザによってカスタマイズするようです。
原文ここ。
2008年12月20日土曜日
James Hamilton Amazonへ移籍へ
James HamiltonのAmazonへ移籍はAmazonがCloud computingでリーダーの地位を占めていることを示します。Hamiltonはコンテナ型のデータセンターを提唱するなど、データセンターのインフラの研究の第一人者です。
原文ここ。
原文ここ。
2008年12月19日金曜日
2008年12月18日木曜日
HPがグリーン化で100億円節約できたという話
当然のことですが、機器を置き換える際にもっとエネルギー効率の高いものに交換すれば、全体としてエネルギー効率があがります。HPが実際にこれをやったと報じています。全部で100億円も節約できたとか。しかし、単に機器を交換した訳ではなく、データセンターの統廃合をやったのが大きいでしょう。先日インテルの人と話をしましたが、インテルも統廃合で3つに絞り込むようです。意外というか、インテル本社のあるサンタクララにはありません。
本文ここ。
本文ここ。
2008年12月17日水曜日
Netappのデータセンター
このエコ・データセンターの分野を見始めたとき、最初に参加したミーティングがNetapp社の会場でした。どうして、ストレッジの会社がエコなのか分かりませんでした。直ぐに、Netappは非常にエコ化が進んでいることが分かりました。
今で言う、コンテイメント(containment)は肉屋の倉庫にあるビニールのカーテンなどを利用して実現していました。
原文ここ。
今で言う、コンテイメント(containment)は肉屋の倉庫にあるビニールのカーテンなどを利用して実現していました。
原文ここ。
2008年12月16日火曜日
寿命の長いlaptop用のバッテリー
この話はGreen IT一般の話です。PCのバッテリは何ヶ月か使っているとだんだん充電力が落ちてすぐにだめになってしまいます。完全な解ではないけれど、この寿命を3-4倍伸ばす会社が現れて、HPと契約しました。この会社はマサチューセッツ州の会社です。
原文ここ。
原文ここ。
2008年12月15日月曜日
Intelの無線センサー
データセンタの各所の温度を測る無線センサー自身は珍しくないが、Intelは様々なソースからエネルギーを自前で取り出すセンサー(注)は非常に有益です。ダイナミックに電力を分配する技術について書きました。サーバーを停止してそれに対する冷却も停止します。そのタイミングもセンサーできっちりと温度をモニターできれば的確に停止したり、また起動できます。
1つの良いアイディアが実装されて、適用されても、また新しい技術が開発され、さらにデータセンターの効率を上げます。研究は続きます。
原文ここ。
注:センサーはWISP (Wireless Identification and Sensing Platform)と呼ばれます。
1つの良いアイディアが実装されて、適用されても、また新しい技術が開発され、さらにデータセンターの効率を上げます。研究は続きます。
原文ここ。
注:センサーはWISP (Wireless Identification and Sensing Platform)と呼ばれます。
2008年12月14日日曜日
2008年12月12日金曜日
HP, Dellのコンサルティング・サービス
データセンターへのサービスはあちこちでも始めています。金曜にOakland市があるAlameda郡のIT部門へプリゼンした際も PG&E(注)のスピーカーもPG&Eでもデータセンターへのコンサルビジネスがあるようです。既に、Sun、MS, HPでもあります が、Dellも始めています。こういった会社は自分のところでやったデータセンターのエコ化をベースにしているので、説得力があります。発表されているこ とは、あまり変わりばえのしないものですが。Dellはサーバーを買い換えてと言ってます。確かに、所持する時期を長くすれば経費も減りますが、効率は新 しいサーバーの方が良いですね。金曜でも同じような質問がPG&Eにも出ました。こっちは、新しくする間隔を大きくしろと主張してました。どちら も正しいでしょう。結局は、状況によりますね。
原文ここ。
注:PG&Eはカリフォルニアを本拠を置く、電気とガスの会社です。電気は500万世帯、ガスは420万世帯に提供しています。まあ、規模は違いますが東電と東京ガスをあわせたような。。。。
原文ここ。
注:PG&Eはカリフォルニアを本拠を置く、電気とガスの会社です。電気は500万世帯、ガスは420万世帯に提供しています。まあ、規模は違いますが東電と東京ガスをあわせたような。。。。
第四世代のデータセンター
最近Microsoftは第四世代のデータセンターを発表しました。Cloud computingの出現で、高価なハードを購入してコンフィギュアして運用保守しなくてもよくなりました。しかし、それを支えるデータセンターの建設費や運用・保守はまだ高価です。最近Micrsoftが第四世代データセンターの構想を発表して、データセンターの建設もオンデマンドにする手法を今後展開するようです。
第一世代は単にデータセンターを運営するが、エネルギー効率とかは考慮しない。第二世代はエネルギー効率を考慮して、冷たい空気と熱い空気を混ぜない、cold/hot aisleやcontainmentを工夫しました。第三世代では、コンテナに最初からサーバーなどのIT機器と冷却や電源を搭載して、一番ちいさなユニットとして使用します。Microsoftが最初にChicago郊外で試験的に使用しています。
第四世代はこのコンテナのアイディアを更に進め、コンテナの外側(外側の冷却とか電源)などを標準化してbuilding blockにして、コモディティ化するというものです。今までの様にそれぞれの建設がユニークでなく、標準化されたブロックを組み合わせて作ります。こうすると:
*それぞれのBuilding blockがコモディティ化して、安価になる
*いかようにも、組み合わせることが出来、必要に応じて拡張できる。
これは、Cloud computingのインフラを増強することになります。
原文ここ。
第一世代は単にデータセンターを運営するが、エネルギー効率とかは考慮しない。第二世代はエネルギー効率を考慮して、冷たい空気と熱い空気を混ぜない、cold/hot aisleやcontainmentを工夫しました。第三世代では、コンテナに最初からサーバーなどのIT機器と冷却や電源を搭載して、一番ちいさなユニットとして使用します。Microsoftが最初にChicago郊外で試験的に使用しています。
第四世代はこのコンテナのアイディアを更に進め、コンテナの外側(外側の冷却とか電源)などを標準化してbuilding blockにして、コモディティ化するというものです。今までの様にそれぞれの建設がユニークでなく、標準化されたブロックを組み合わせて作ります。こうすると:
*それぞれのBuilding blockがコモディティ化して、安価になる
*いかようにも、組み合わせることが出来、必要に応じて拡張できる。
これは、Cloud computingのインフラを増強することになります。
原文ここ。
2008年12月11日木曜日
virtualization(仮想化)のたくさんの顔
virtualization(仮想化)と言えば、サーバーの仮想化と考えられてますが、実に奥が深いと話です。バーチャル・マシン(VM)としてアプリケーションの実行をハードから切り離します。hypervisorとのインターフェースが標準化されるなか、VMはどのハードからも移動可能となります。これがもたらす影響は大きいです。例えば。
*disaster recovery
*負荷分散
*負荷をまとめて、あるサーバーをアイドルに。そのアイドル・サーバーを止める。
*一まとめにしたため、オンデマンド・コンピューティングを可能に。
*クライアント・レベルでの仮想化を可能に。。。。。。。
原文ここ。
*disaster recovery
*負荷分散
*負荷をまとめて、あるサーバーをアイドルに。そのアイドル・サーバーを止める。
*一まとめにしたため、オンデマンド・コンピューティングを可能に。
*クライアント・レベルでの仮想化を可能に。。。。。。。
原文ここ。
2008年12月9日火曜日
2008年12月8日月曜日
省エネ法改正
経済産業省のページからですが、省エネ法が改正されました。2つの点を強調しています。1つはCO2の排出ともう1つはエネルギーの使用によるものです。最近日本での発表に関わって、いかにCO2の排出のみが強調されているように思われました。もしグリーンなエネルギーがあったとして、その使用でCO2の排出がないとします。しかも、もしその価格が低いとしましょう。それなら、好きなだけ使っても良いことになってしまいます。
グリーンであるということはどういうことでしょうか?2007-2008年度のIBMはエネルギー効率も上げて、グリーンなエネルギーもできるだけ使ったようです。それにもかかわらず、CO2の排出量は上がったそうです。この原因はビジネスが発展して、全体量のエネルギー消費量が増加したためだそうです。なんと皮肉なことでしょうか。だったら、ビジネスを削減すれば良いことになり、ビジネスをすることで存在している企業の存在意義がなくなってしまいます。
ところで、改正の概要は:
この改正のために新しいサービスなどが紹介されています。原文はありません。これが原文です。
グリーンであるということはどういうことでしょうか?2007-2008年度のIBMはエネルギー効率も上げて、グリーンなエネルギーもできるだけ使ったようです。それにもかかわらず、CO2の排出量は上がったそうです。この原因はビジネスが発展して、全体量のエネルギー消費量が増加したためだそうです。なんと皮肉なことでしょうか。だったら、ビジネスを削減すれば良いことになり、ビジネスをすることで存在している企業の存在意義がなくなってしまいます。
ところで、改正の概要は:
「これまで一定規模以上の大規模な工場に対しエネルギー管理の義務を課していました が、改正により事業者単位のエネルギー管理を義務づけることとしています。また、一定の要件を満たすフランチャイズチェーンについても、チェーン全体を一 体として捉え、本部事業者に対し、事業者単位規制の規制と同様の措置を講ずることとしています。
これにより、業務部門に多く見られる中小規模の事業場を数多く設置する事業者を新たに義務の対象に加えるとともに、産業部門を含め、事業者の経営判断に基づく効果的な省エネルギーの取組を推進していきます。」
この改正のために新しいサービスなどが紹介されています。原文はありません。これが原文です。
2008年12月7日日曜日
CO2ガス排出の制限にとりつかれた日本
アメリカのGreen ITはエネルギーが足らない、エネルギー費が高すぎるから来ています。日本は「CO2ガス排出の制限にとりつかれた日本」と見えます。京都での議論では他の3人の方と議論が噛み合いませんでした。日本政府からの圧力なのか、「なにが何でも、CO2を減らすんじゃ。」ということのようです。しかし、ビジネスですから、ビジネスを成り立たせないような手法では結局は成功しないんじゃないでしょうか。
原文ここ。
原文ここ。
2008年12月6日土曜日
2008年12月5日金曜日
2008年12月3日水曜日
NEC's Real IT Cool
REAL IT COOL推進センター長の泓 宏優氏
スタッフの皆さん
REAL IT COOL推進センター長のご好意で、NECにデモプラザを見学して来ました。デモサイトはNECの本社に入り口の付近を改造して設立されています。泓センター長によると、他のベンダーだと独自のサーバーや機器が入っているので、見せられないということが多いが、NECでは見せるためのデモサイトを作ったということで、写真撮影もOKでした。NECは効率の良いサーバーとそれを効率的に冷却する解を組み合わせて、Real IT Coolというシステムを構築しました。 サーバ側は小さく軽くしてエネルギー効率を上げています。またインフラ側はその専門家のAPCと組んで、冷却と電源管理はそちらとの連携でシステムを構築しています。ホットアイル・コンテーメント(HAC Hot Aisle Containment)を使用しています。HACの多くの形態は熱い空気を吸い上げて外に除去するのが多いのですが、APCは水冷で熱い空気を冷却して、側面から涼しい方に戻しています。
NECのプレスリリースはここ。
幾つか、泓センター長に聞きました。
岸本: どうして、APCと組んだのですか?
泓 : APCさんはインフラだけでなく、管理ソフトにも力を入れていたからです。弊社のWebSamとの連携でいろいろなことが出来ますから。
岸本:それって、VMを一箇所に集めてアイドルになったサーバーを停止するなんてことも関係しますか?
泓: そうです。
岸本: それって日立さんがNTT ファシリティさんとやっているのと同じですか?
泓:そうです。NTT ファシリティから仕様を貰って、ファシリティさんの機材とも連携する予定です。
岸本:そうなると、差別化ってなんですか?
泓:いかにお客様の意向を汲んでシステムを構築することです。
岸本:そうするとSIの力ということですか?
泓: そうですね。
岸本:ところで、端末のダッシュボードの画面にPUEが表示されてますが、1.57でこれってもっと良いのでは?
泓: 実は、まだあまりサーバーを入れてないので、値がここに留まってます。
岸本: 。。。。。。。
日本の方は実に真面目だと感じた次第です。
スタッフの皆さん
REAL IT COOL推進センター長のご好意で、NECにデモプラザを見学して来ました。デモサイトはNECの本社に入り口の付近を改造して設立されています。泓センター長によると、他のベンダーだと独自のサーバーや機器が入っているので、見せられないということが多いが、NECでは見せるためのデモサイトを作ったということで、写真撮影もOKでした。NECは効率の良いサーバーとそれを効率的に冷却する解を組み合わせて、Real IT Coolというシステムを構築しました。 サーバ側は小さく軽くしてエネルギー効率を上げています。またインフラ側はその専門家のAPCと組んで、冷却と電源管理はそちらとの連携でシステムを構築しています。ホットアイル・コンテーメント(HAC Hot Aisle Containment)を使用しています。HACの多くの形態は熱い空気を吸い上げて外に除去するのが多いのですが、APCは水冷で熱い空気を冷却して、側面から涼しい方に戻しています。
NECのプレスリリースはここ。
幾つか、泓センター長に聞きました。
岸本: どうして、APCと組んだのですか?
泓 : APCさんはインフラだけでなく、管理ソフトにも力を入れていたからです。弊社のWebSamとの連携でいろいろなことが出来ますから。
岸本:それって、VMを一箇所に集めてアイドルになったサーバーを停止するなんてことも関係しますか?
泓: そうです。
岸本: それって日立さんがNTT ファシリティさんとやっているのと同じですか?
泓:そうです。NTT ファシリティから仕様を貰って、ファシリティさんの機材とも連携する予定です。
岸本:そうなると、差別化ってなんですか?
泓:いかにお客様の意向を汲んでシステムを構築することです。
岸本:そうするとSIの力ということですか?
泓: そうですね。
岸本:ところで、端末のダッシュボードの画面にPUEが表示されてますが、1.57でこれってもっと良いのでは?
泓: 実は、まだあまりサーバーを入れてないので、値がここに留まってます。
岸本: 。。。。。。。
日本の方は実に真面目だと感じた次第です。
クラウド・ワーシング
Cloudwashingがもとの言葉ですが、なんでもかんでもCloud Computingとやり過ぎだとForresterのアナリストが語ったYouTubeのビデオへのリンクを掲載しています。Cloud computingの定義や標準があいまいな中、なんでもCloud computingと呼ぶ風潮はいかがなものかというお話です。
原文ここ。
原文ここ。
2008年12月2日火曜日
HPの新しいディビジョン
以前EYPとして知られていた会社がHPへの統合を完了して、HP Critical Facilities Servicesとなりました。簡単に出来て、効率を上げる方法を上げています。
原文ここ。
原文ここ。
2008年12月1日月曜日
2008年11月30日日曜日
2008年11月29日土曜日
コンテナ型データセンター
コンテナ内にサーバーなどのIT機器をセットして出荷してそれを一番小さいユニットとしてデータセンターを構築する話は、既にあちこちで報告されていま す。東京でのコンファレンスでRackable SystemsのVPと話をする機会がありました。一番面白かったのは、コンテナ内でサーバーが故障するとほっとおいて、ある一定以上のサーバーが故障す るとコンテナごと交換するというものです。しかし、このVPは故障したサーバーはコンテナを開けて、交換すると言いました。どうも、報道だけを信じてはい けないようです。
原文ここ。
原文ここ。
2008年11月28日金曜日
データセンター用のEnergy Starレーティング
今日はThanksgivingですが、国外にいるのでお仕事です。今日は京都で講演。
データセンター用のEnergy Starレーティングを設定するために、EPAがたくさんのデータセンターからデータを集めています。その中間報告ミーティングが開催されるという話です。11月20日だったので、遅すぎますが。米国での政府と民間の協力体制は本当に良く機能していると思います。結果がでればまた、ここに書きます。
原文ここ。
データセンター用のEnergy Starレーティングを設定するために、EPAがたくさんのデータセンターからデータを集めています。その中間報告ミーティングが開催されるという話です。11月20日だったので、遅すぎますが。米国での政府と民間の協力体制は本当に良く機能していると思います。結果がでればまた、ここに書きます。
原文ここ。
2008年11月27日木曜日
HPの電源キャッピング
HPの電源キャッピングは使用出来る電力に制限を設定する技術です。このため、制限以上の電力が求められた場合、サーバーのclock speedを落とします。これは、SLAをあまり必要としないウエブのアプリなどには向いていますが、mission criticalなものには向きません。
原文ここ。
原文ここ。
2008年11月25日火曜日
2008年11月24日月曜日
2008年11月23日日曜日
既存のデータセンターの改善
新たにデータセンターを建設する際には、いろいろな新しい技術や手法を駆使してエコにできる。しかし、実際のもうデータセンターがあったら、改善できる余地は制限されている。空気流通をコントロールするのが一番手っ取り早い。涼しいアイルと暑いアイルを分けるだけでは、なくて実際にコンテーンメントを入れた完全分離が必要です。涼しいアイルを囲むのは比較的簡単なようです。それようの製品も結構紹介されています。実際には、データセンターは千差万別で一概にどうのこうのとは言えません。既存のデータセンターがエネルギー的に見て、効率が良くないを指摘し続けることはそれなりに意味があるかと思いますが、実際の改善は個別のコンサルが必要でしょう。
原文ここ。
原文ここ。
2008年11月22日土曜日
データセンター・ダイナミックス・コンファレンス
ともかく無事に終わりました。私の発表は内容はともかく、たくさんの方が寒い中朝早くから来て頂き感激です。コンファレンスの内容は2-3回に分けて報告したいと思いますが、まずは簡単なまとめから。現在午前3時ですが、時差で眠れません。
参加者は約300人程度でした。数多くのデータセンター運営の方が参加なさいました。今までは日本の会社としては、NTTファシリティさんだけだったのが、今年はNECさんと日立さんも参加なさいました。かなり水準の高いお話で、これはアメリカの先進的な会社に比較しても引けは取りません。その他、日本グリーングリッドの方やRackable(アメリカ・シリコンバレー)の方ともお話できました。更には、交流か直流かのお話もそれぞれの陣営の方とお話ができ、なかなか有意義でした。
さすがにちと手元が危うくなってきたので、今は私の雄姿を示してサインオフです。
2008年11月21日金曜日
ダイナミック電力管理
今までなかったのが不思議なくらいですが、ダイナミックに変化する負荷に応じた量のコンピューティングを用意すれば、一番効率が良いです。つまり、必要に応じてサーバーを立ち上げたり落としたりすれば何もしていないが、60-90%の電力を消費するサーバーの電源を切ることができる。PowerAssureという会社がこれを提供しています。その他、HPは消費の絶対量を設定する方式を発表しました。
原文ここ。
原文ここ。
2008年11月20日木曜日
IBMのCO2とエネルギー削減
IBMはエネルギー削減を削減したのにも関わらず、CO2の発生量が増加したと報じています。発生率を減少させたとしても、全体の量は増加しました。これは全体のビジネスが増加したためです。難しい問題です。
原文ここ。
原文ここ。
2008年11月17日月曜日
2008年11月16日日曜日
世界の24の大手ICTのベンダーはエコか?
2008年11月15日土曜日
Santa Claraのデータセンター市場
2008年11月14日金曜日
中小規模のデータセンターの改善
2008年11月13日木曜日
2008年11月12日水曜日
Amazonの新しいデータセンター
2008年11月11日火曜日
サーバーの購入価格と運営価格が逆転
2008年11月9日日曜日
良すぎるGoogleのPUE
PUEはデファクト・スタンダードになりました。しかし、分母と分子をどうやって計測するかで、値はかなり変化します。最近のGoogleの1.15は EPAがstate-of-the-artでもせいぜい1.2だと言っているなか、あり得ないほどの良い値です。色々と読んでいると、実はオフィースの部 分を除外していることが分かりました。Microsoftも1.2台の良い値を出してますが、こっちはオフィースの部分も含んでます。同じ様に測らないの なら、あまり比較しても意味がないですね。
原文ここ。
原文ここ。
2008年11月6日木曜日
インターネットとクラウド・コンピューティング
インターネットは無数のネットワークから成り立ったいるのは、周知の事実ですが、一番影響があるのはTier-1と言われるISPです。定義にもよります が、大体7-10のISPから成り立ってます。cloudコンピューティングはインターネットがなければ成立しません。最近Tier-1である CognetとSprintの間でpeeringをめぐり、紛争が起こり一時接続を切断しました。このため、Cognetのみに接続してインターネットに 到達する企業、Sprintのみに接続してインターネットに到達する企業はそれぞれに接続できなくなりました。インターネットのバックボーンをコントロー ルするISPがお互いに接続する(peering)は特別なグループを形成しており、実際にどうやって相互接続を形成するのかは、定かではありません。 Cognetは価格破壊を標榜して結構あちこちと問題を起こしてきました。これを書いている段階では、一時接続が戻っています。
これを考えるとCloud computingもかなり危ういベースの上に成り立って居る訳です。
原文はここです。
これを考えるとCloud computingもかなり危ういベースの上に成り立って居る訳です。
原文はここです。
2008年11月5日水曜日
データセンター・ダイナミックスの東京コンファレンス
データセンター・ダイナミックスという会社はデータセンターの専門家で世界中でコンファレンスを開催しています。私は11月21日東京で開催されるコンファレンスで講演します。
日本も最近データセンタでの電力消費の問題が取り上げられ始めています。最近の動きでは、グリーンIT推進協議会の設立や大手のITベンダーによる高エネルギー効率のサーバーやデータセンターのエネルギー効率の上昇を助長する解をみることができます。
今年の9月東京を訪れる機会があり、グリーンIT推進協議会、ITベンダー、データセンターの設計会社、データセンターの運営会社、メディアやその他の方々とGreen ITとGreen Data Centerに関してお話を聞くチャンスがありました。
米国での幾つかの傾向は既に日本でも実装されていますが、そうでないものもあります。米国の傾向を紹介してそれがどのくらい日本に適用できるのかを解析してみようと思いました。それが、この講演に繋がりました。
他のプログラムやスピーカに関してはここを参照してください。
大手のIT機器ベンダーからはNECと日立が講演します。NECは一番エネルギー効率が良いことで賞を受賞しました。また、日立はITとサポートのインフラを統合した解を提供しています。NTTファシリティはデータセンター設計の専門家です。
この他に数社はそれぞれの製品に関して講演します。シスコは今有名な「Data Center 3.0」に関して、シトリックスは仮想化について話をします。電力と冷却の専門家のAPCや Rittal も参加します。最後にグリーン・グリッドの日本支部のセクレタリーのお話も見逃せません。
コンピューティング力をデータセンタからデータセンタへ移す
2008年11月4日火曜日
データセンタの場所選択基準
2008年11月3日月曜日
エネルギー効率化ワークショップ
2008年11月2日日曜日
電源の効率化
今日は電源の効率化の話。日本でも電源の効率化とファンの作動制御でNECがサーバーの電気効率をあげている。米国では、Climate Savers Computing Initiativeと80Plusがこの分野の中心。
原文ここ。
東京data center dynamics コンファレンス(11月21日)で講演します。詳細はここ。
原文ここ。
東京data center dynamics コンファレンス(11月21日)で講演します。詳細はここ。
2008年11月1日土曜日
シリコンバレーの真ん中の電力会社
2008年10月31日金曜日
Harley-Davidsonの自前でデータセンターを持った話
2008年10月30日木曜日
データセンタのサイズによる区分け
2008年10月29日水曜日
PUEについて考える
2008年10月28日火曜日
2008年10月27日月曜日
2008年10月26日日曜日
データセンター建設にかげり?
オフィースに行く際に何時も通る近くのデータセンター建設サイト、ある情報によると建設が中止になったようだ。昨日通りかかると全ての建設機器や機材が撤去されていた。整地をして、穴を掘りパイプが設置されている。これから、冬にかけて雨季になってくるのに、どうするんだろうか。
また、昨日MSが来期のデータセンター建設費を300億円節減すると発表した。いよいよこの分野も冷え込むのか?
原文ここ。
2008年10月25日土曜日
data center dynamicsで講演
てなことになった。
コンファレンスのページはここ。
出し物は、
データセンターに関して、日米間では大きな違いがある。例えば、日本では電力費は全国的にほぼ一律であるが、アメリカでは地域によってかなりばらつきがある。 また日本ではアクセスを重視するため、多くのデータセンターが東京などの大都会の真ん中に建設・維持されることが多く、そのために必要なスペースについて様々な制約があるが、米国ではこうした問題はあまりない。
米環境庁によれば、データセンターの消費電力は2000年から2006年の間に2倍になり、現在全米の1.5%以上に上るのみならず、さらに増加し続けている。この問題を解決すべく、アメリカ政府、国立の研究機関、およびITベンダーは様々な新しいアプローチを試み、エネルギー効率を改善し全体の電力消費を削減する技術を通じて、「エコ データセンター」を実現しようとしている。こうした取り組みは少しずつ実を結び始めている。
日本もようやく、その方向に向かい始めている。この発表では、日本のデータセンターがどのようにして運用効率を上げ電力消費を削減できるか、エコを実現する方策ついて述べる。
コンファレンスのページはここ。
出し物は、
データセンターに関して、日米間では大きな違いがある。例えば、日本では電力費は全国的にほぼ一律であるが、アメリカでは地域によってかなりばらつきがある。 また日本ではアクセスを重視するため、多くのデータセンターが東京などの大都会の真ん中に建設・維持されることが多く、そのために必要なスペースについて様々な制約があるが、米国ではこうした問題はあまりない。
米環境庁によれば、データセンターの消費電力は2000年から2006年の間に2倍になり、現在全米の1.5%以上に上るのみならず、さらに増加し続けている。この問題を解決すべく、アメリカ政府、国立の研究機関、およびITベンダーは様々な新しいアプローチを試み、エネルギー効率を改善し全体の電力消費を削減する技術を通じて、「エコ データセンター」を実現しようとしている。こうした取り組みは少しずつ実を結び始めている。
日本もようやく、その方向に向かい始めている。この発表では、日本のデータセンターがどのようにして運用効率を上げ電力消費を削減できるか、エコを実現する方策ついて述べる。
2008年10月24日金曜日
どこでも、データセンター
データセンターはどこにでも建設できると言う話、日本発は昔の鉱山。。。。その他にも色々思いもかけないところに。書いたほかにも、病院のそばにあって、その熱で洗濯物の乾燥に、またホテルの近くで温水プール用にとか、色々ある。
原文ここ。
原文ここ。
2008年10月22日水曜日
2008年10月21日火曜日
2008年10月20日月曜日
2008年10月19日日曜日
Yahooのデータセンター
Yahooのデータセンターの責任者のインタビュー記事。
どうすれば、効率を上げられるかの疑問にいろいろと答えているが、一番のアドバイスは熱い空気と冷たい空気を混ぜないことのようだ。。。。。
原文ここ。
どうすれば、効率を上げられるかの疑問にいろいろと答えているが、一番のアドバイスは熱い空気と冷たい空気を混ぜないことのようだ。。。。。
原文ここ。
2008年10月18日土曜日
Flywheelとバッテリー
Flywheelが注目を浴びている。バッテリーが環境に悪いからだ。でも本当にFlywheelが環境に良いのか?僅か15秒しか持ち堪えられないので、すぐに発電機が始動する。UPSの方は15分だからその間に電力が回復することもある。
原文ここ。
原文ここ。
2008年10月17日金曜日
linkedin落ちる
Linkedinが何回か落ちて、成長の過程でしかたがないのか。 それともCloud computingの限界かと書かれている。しかし、どんなシステムは絶対落ちないと保障はできまい。しかも、ただで使ってそれはないだろうと。昔メールとウエブをホストしている業者にメールが頻繁に落ちるので、文句を言ったら「そんなに、メールが大切なら、そんな安いパッケージでなく高いオプションにしなさいよ。」と言われてむかっときたが、良く考えると当たり前か。。。。。
原文ここ。
原文ここ。
2008年10月15日水曜日
シスコのブログに対するコメント
シスコのブログに対するコメント:
データーセンターを効率化するには、インフラかそれともアプリの構造改革かという質問。シスコ側はインフラがまず大切と強調。アプリ間の共通項は少ない? 圧倒的に支持。
原文ここ。
データーセンターを効率化するには、インフラかそれともアプリの構造改革かという質問。シスコ側はインフラがまず大切と強調。アプリ間の共通項は少ない? 圧倒的に支持。
原文ここ。
2008年10月14日火曜日
2008年10月13日月曜日
2008年10月12日日曜日
2008年10月11日土曜日
cloudへの無線アクセス
cloud computingと データセンターとの関係をはっきりいう人もいないし、記事もない。ところで、更にcloudへのアクセスを言う人もない。cloud computingの本当の価値はどこでも、いつでものアクセスということを考えないと話にならない。果たしてWiMAXはどうなんだろうか。昨日SprintがオフィシャルにWiMAXを開設した。
原文ここ。
原文ここ。
2008年10月10日金曜日
IP Transitの値段が下落
Cogent Communications, Level 3 Communications, Tata Communications, Global Crossing, や AT&T が提供するwholesaleのIP Transitの値段が下がっている。これは、cloud computingを提供するyahooやGoogleに朗報
原文ここ。
原文ここ。
2008年10月1日水曜日
アメリカの金融界への援助ーー75兆円
といかにも、きな臭い。。。。嫌な予感だ。しかし、これだけ在ったら何かできるかという記事があったので紹介する。スタートレックのMr. Spockは凄いことが起こるとすぐに「Facinating!!」と言う。すると、横からドックがけしからんというのだが、彼の反論は「凄いという事態に感銘を受けており、別に肯定していない。」と言う。
原文ここ。
原文ここ。
2008年9月28日日曜日
日米のデータセンターの違い
日本に来てから、時間がなくて日本語版のアップデートとさぼり気味。久々に。
日米のデータセンターの違い:
1.アメリカは無駄にエネルギーを使用してきたので、ちょっとしたことで、大いに節約できるが、日本は乾いた雑巾を絞るので、小手先ではあまり節約に至らない?
2.データセンターは都市部に集中。。。。でも、いよいよ大手町でも場所や電力の供給に限度が出てきた。
3.日本は人海戦術。アメリカは自動化。。。。
などなど。。。。。原文はここ。
日米のデータセンターの違い:
1.アメリカは無駄にエネルギーを使用してきたので、ちょっとしたことで、大いに節約できるが、日本は乾いた雑巾を絞るので、小手先ではあまり節約に至らない?
2.データセンターは都市部に集中。。。。でも、いよいよ大手町でも場所や電力の供給に限度が出てきた。
3.日本は人海戦術。アメリカは自動化。。。。
などなど。。。。。原文はここ。
2008年9月22日月曜日
メトリックの話
データセンターでメトリックはGreen Gridからのものが殆どだ。もっとも、Uptimeはもっと昔からやっていて、もっと包括的なものを発表してきたと言っている。確かに、Uptimeのサイトでwhite paperをみるとたくさんのレポートがある。Uptimeが批判するPUEと同じもの(名前が違う)がUptimeでも定義されている。
ともかく、Green Gridが新たなメトリックを開発した。
CPEは(IT 機器の使用率* DCiE)。その他にDCiE, サーバー使用、ネットワーク使用、ストレッジの使用とデータセンターの使用を5つのノードにとり、理論値、目標値と最高値と平均値を同時に表すグラフでも表示した。
原文ここ。
ともかく、Green Gridが新たなメトリックを開発した。
CPEは(IT 機器の使用率* DCiE)。その他にDCiE, サーバー使用、ネットワーク使用、ストレッジの使用とデータセンターの使用を5つのノードにとり、理論値、目標値と最高値と平均値を同時に表すグラフでも表示した。
原文ここ。
2008年9月21日日曜日
2008年9月20日土曜日
PUE (電力使用効率)メトリックの問題
現在データセンターの効率を測るメトリックと言えば、PUEとその反対のDCiEが圧倒的に有名だが。このメトリックにも問題はある。つまり、PUEはデータセンターに供給された全電力をIT機器で消費された全電力で割ったものである。つまり、1に近づけることはできるが、絶対に1にはならないし、ましてや、1より小さくなることはない。
1つの問題は効率が全然メトリックに反映されていない。例えば、サーバーを仮想化で数個から1つにまとめたとする。サーバーの効率は上がるが、PUEではこれをうまく反映できず必ずしも良いメトリックとは言えない。PUEはGreen Gridが開発したものだが、Uptimeはこのメトリックを不十分として批判している。幾つかのブログでこの批判に対する批判がおこり、またUptimeの内紛もおかしく報道されている。しかし、Uptimeの発表している多くのホワイトペーパーを読むとメトリックをかなり良く研究している。しかも、そのうちの1つは殆どPUEと同じだ。
原文はここ。
1つの問題は効率が全然メトリックに反映されていない。例えば、サーバーを仮想化で数個から1つにまとめたとする。サーバーの効率は上がるが、PUEではこれをうまく反映できず必ずしも良いメトリックとは言えない。PUEはGreen Gridが開発したものだが、Uptimeはこのメトリックを不十分として批判している。幾つかのブログでこの批判に対する批判がおこり、またUptimeの内紛もおかしく報道されている。しかし、Uptimeの発表している多くのホワイトペーパーを読むとメトリックをかなり良く研究している。しかも、そのうちの1つは殆どPUEと同じだ。
原文はここ。
2008年9月19日金曜日
Ciscoのエネルギー・タックス
Ciscoの市場独占は変わらない。これを少しでも変えようと今年の5月のInteropsでNortelはCiscoの製品はNortelに比較して、電力消費が多いと主張。youtubeなどにもそれを証明するビデオ(原文を参照)を提供している。それはそれ、しかしCiscoの快進撃は止まることを知らない。データセンター内の仮想化はスイッチからということで、快進撃をしている。それに引き換えNoertelはOpticalの分野から撤退することになった。業績もいまいちである。
原文はここ。
原文はここ。
2008年9月18日木曜日
Ethernetの現状
現在のEthernetは2つの標準が動いている。
原文ここ。
- 802.3ba: エネルギーを節約する標準。負荷がないときは、止める。
- P802.3ba: 40Gと100Gへの標準。
- FCoE: Fiber channelをEthernetで転送 (CiscoとBrocadeとの2つの標準争い)
原文ここ。
2008年9月17日水曜日
データセンターのチェックリスト
昨日はデータセンターのエネルギー消費を計算してくれる、DoE提供のDC Proに関して述べた。今日はそれに関連して、SunのCIOが簡易版のチェックリストを述べている。簡単に言えば:
原文ここ。
- サーバーやその他の機器の製造年月日を調べて、あまり古いものは交換する
- IT で決定権を持つ人とファシリティの管理者とを連携させる
- 最新の技術、仮想化やコンテナベースの手法を使用する。
- ラックのレベルでエネルギー消費を計測する
原文ここ。
2008年9月16日火曜日
DC Pro....データセンタープランツール
エネルギー省はデータセンターのエネルギー利用率を上昇させるため、色々な活動を行っている。DC Proというのは、データセンターのいろいろなパラメータを入力すると、データセンターでのエネルギ消費に関するデータを計算して、グラフで表示してくれる。今のところまだベータ版だが、無料。使用前にcheckistで必要なデータや情報を取得しておくと、有効である。このchecklistはデータセンターのエネルギー効率を上げるchecklistとしても有効である。
原文ここ。
原文ここ。
2008年9月15日月曜日
2008年9月14日日曜日
データーセンターの自動化
データセンターの傾向の1つとして、自動化が進んでいる。HPが一番進んでいると市場調査会社のForresterが報じている。そのレポート(通常は有料)がHPのサイトから無料ダウンロードできる。HPに続く会社としては、BMC, IBM, CAなどだ。
HPの強みは最近Opswareを買収したこととされている。OpswareはMarc Andressenが創始して当初はデータセンター自動化のツールとシステムの開発と運営(SI)をする会社だった。後に開発・運営の部門をEDSに売却した。 HPはその後、EDSも買収した。正に鬼に金棒だ。
原文はここ。
HPの強みは最近Opswareを買収したこととされている。OpswareはMarc Andressenが創始して当初はデータセンター自動化のツールとシステムの開発と運営(SI)をする会社だった。後に開発・運営の部門をEDSに売却した。 HPはその後、EDSも買収した。正に鬼に金棒だ。
原文はここ。
2008年9月13日土曜日
ストレッジの仮想化
サーバーの仮想化は比較的簡単。 X86とlinuxとWindowsくらいしかない。しかも、さんざんサーバーの稼動率が低いのを解決という話は聞いた。 しかも、hypervisorへのAPIも標準化されつつあり、ほとんどコモディティかしている。話は管理ツールに動いている。データセンターでのハードは4-5年で総入れ替えになるので、それまでに殆どのサーバーは仮想化される見込み。
ストレッジの仮想化はもっと複雑とくにDAS, NAS, SANをまとめて管理できないと、有効に管理できない。サーバーに比べるとコンポーネントの数や種類が多いので、まだサーバーほどは浸透していない。更に定義もかなりもしも一定しておらず、技術も色々なコンポーネントレベルで実装されている。ストレッジとネットワークの仮想化ができて、この3つを統合できないとデーターセンターの仮想化は困難だ。
原文はここ。
ストレッジの仮想化はもっと複雑とくにDAS, NAS, SANをまとめて管理できないと、有効に管理できない。サーバーに比べるとコンポーネントの数や種類が多いので、まだサーバーほどは浸透していない。更に定義もかなりもしも一定しておらず、技術も色々なコンポーネントレベルで実装されている。ストレッジとネットワークの仮想化ができて、この3つを統合できないとデーターセンターの仮想化は困難だ。
原文はここ。
2008年9月12日金曜日
データストレッジがいかにエコかを測る
データストレッジがいかにエコかを知るには、なんらかのメトリックが必要だ。Wikibonという会社がエコの程度を測るサービスを提供し始めた。ストレッジのエコ度は色々な技術で高めることができるが、Wikibonのメトリックは現在のところMAID(必要ないディスクを停止)とthin provisioning(フィジカルでなくロジカルに必要なストレッジの量を予約)にだけ適用される。これを元に、地元の電力会社のPG&Eがリベートを発行する。EPAが行っているEnergy Starとは全く関連がない。
この手は話は結構ある。ファイアー・ウオールやその他の機器がちゃんとセキュリティに対応しているかと検査するサービスだが。この機関は全く公的機関とは関係ないのだが、いつの間にかオーソリティになってしまった。昔セキュリティビジネスをしているときに、この機関に25,000ドルも支払って検査して貰い証書を貰った。高いとかけしからんとか言いながらうちの製品を送ったのを思いだした。
原文ここ。
この手は話は結構ある。ファイアー・ウオールやその他の機器がちゃんとセキュリティに対応しているかと検査するサービスだが。この機関は全く公的機関とは関係ないのだが、いつの間にかオーソリティになってしまった。昔セキュリティビジネスをしているときに、この機関に25,000ドルも支払って検査して貰い証書を貰った。高いとかけしからんとか言いながらうちの製品を送ったのを思いだした。
原文ここ。
2008年9月11日木曜日
Rackspaceの株式公開
ちと古い話で恐縮。ホスティング会社のRackspaceが8月7日株式を公開した。現在の市場状況下でのIPOは無謀という見方や、こんな状況でもホスティング会社はできるのかという感嘆や。最初の目標は一株$15だったが、当初は$10程度で、現在もそのレベルで動いている。実際に年毎に売り上げも収益も上がっており、投資家から見ると優良企業のはずだか、やはり市場はまだかなり悪い。
原文はここ。
原文はここ。
2008年9月10日水曜日
2008年9月9日火曜日
cloud computingと将来のコンピューティング
最近のcloud computingの傾向の中から雑音をどけて、よく見ると大きな動きがコンピューティングに起きていることが分かる。
- Dellが自前の工場を売りに出すような方向 (PCを製造販売などというのはもうだめ。)
- Dellが小型のPCを販売 (クラウド・コンピューティングに特化するもの)
- 韓国ではハリウッド系のDVD販売が撤退(最後の大手のソニーが撤退、ネットでダウンロード)
- MSのミドリ
- そしてGoogleのChrome
- INTELのMIDは今までだめだったは、今後伸びるかもしれない。
なんでグーグルがChromeを作るのか分からなかったが、2-3読んでの結論。Chromeはブラウザーではない。ではなにかというと、cloud computing専用のクライアントであると。ブラウザーはウエブページを見るものだが、chromeはcloud computingでアプリを実行するためのGUIだと。そうすれば、見えてくる。Chromeは簡単、速い、セキュアー。。。これってクラウドのクライアントのためだとするとよく理解できる。
結局最終的にはネットへの接続をどこでも、高速でできるかだろう。。。。。
原文ここ。
2008年9月5日金曜日
クラウド・コンピューティングを支えるデータセンター その3
さて、クラウド・コンピューティングはvirtual data centerで実装されると言ってきた訳だが、最近のデータセンターは巨大化している。500億円程度で、46,000 平米くらいが最近の平均だ。原文で各社の最近のデータセンターの情報を参照。 最近気が付いたが。オフィースの直ぐそばで、55,000平米のデータセンターが建設されている。
原文はここ。
原文はここ。
クラウド・コンピューティングを支えるデータセンター その2
クラウドコンピューティングに関しては、日経新聞に掲載された記事を参照。昔、Marc AndreesenがAOLを辞めた後、LoudCloudという会社を創始した。色々なアイディアを検討していたが、最終的には全てサーバー側でコンピューティング・システムを構築する必要に駆られた。これは容易ではない。それで、LoudCloudを創始して、システム構築とシステムの運営をする。しかし、運営に素人で結局運営部門をEDSに売却。名前をOpsWareに変更した。最終的にはHPに買収された。EDSが最近HPに買収されたことも考慮すると、HPがデータセンターの雄となった。
いまだにCloud computingとデータセンターの仮想化を論じる人が少ないのはなぜなんだろうか。
原文。
いまだにCloud computingとデータセンターの仮想化を論じる人が少ないのはなぜなんだろうか。
原文。
2008年9月3日水曜日
クラウド・コンピューティングを支えるデータセンター その1
クラウド・コンピューティングへがブレークしている。定義も様々で、全てがこれで解決されるような論調もみられる。他でも書いたが、クラウドコンピューティングはサーバー側コンピューティングで、リソースをダイナミックにオンデマンドで供給できるものと簡単に定義したい。正式な定義はないので、これだとGrid computingも含まれる。でもgrid computingはcloud computingを実装できる。しかし、cloud computingでgrid computingは実装できない。grid computingには実態があるからだ。なにせ、cloud computingは定義のない魔法の技術だから、なんでもありである。
また、忘れられているのは、cloud computingは抽象概念で、それを実装するには、データセンターだからだ。また、それを抽象化するには仮想化技術が不可欠だ。サーバーに関してはあるが、ストレッジやネットワークにはまだ標準的に使用できるものは少ない。でも、この魔法の言葉はどんどん広がって行く。そのうち、どーんと落ちます。そしてもっとましなレベルで落ち着くだろう。
原文はここ。
また、忘れられているのは、cloud computingは抽象概念で、それを実装するには、データセンターだからだ。また、それを抽象化するには仮想化技術が不可欠だ。サーバーに関してはあるが、ストレッジやネットワークにはまだ標準的に使用できるものは少ない。でも、この魔法の言葉はどんどん広がって行く。そのうち、どーんと落ちます。そしてもっとましなレベルで落ち着くだろう。
原文はここ。
バッテリーに代わる電源
バッテリーは充電するために、DCに変換しなければならず。あまり効率が良いとはいえない。2つばかり違う方式の電源が提案されている。flywheelとultracapacitorだが。UPSは数分の時間、flywheelは綺麗なエネルギーということだが、数秒だということで、flywheelはすぐに発電機が必要だ。そう考えると電力供給が落ちているのが短ければよいが、直ぐに発電機を起動すれば、公害を撒き散らす。
原文はここ。
原文はここ。
2008年9月2日火曜日
エコなストレッジ
ストレッジの分野でどういうふうなエコの技術があるのだろうか。SNIAは最近発表された比較的短い論文を推奨している。これはSNIAに所属する会社から4人による共著である。エコの観点からみると、データセンターで電力消費をするものはサーバーだけれど。電力消費の増加の割合は2000年から2006年には191%の増加をみた。簡単にまとめる。
等だ。原文はここ。
- 電力消費の効率の良い電源を使用。
- 容量大のディスクを使用
- 最新のRAIDを使用
- シン・プロビジョニング(物理的でなく、論理的に必要な容量をリザーブ)
- やたらに、あちこちに同じコピーを持たない(1つのコピーのみ格納)
- 必要ないディスクは停止する
等だ。原文はここ。
2008年9月1日月曜日
EPAのデータセンター関連のデータ収集
サーバーと同様、EPAはデータセンターにもEnergy Starのエネルギー効率が良いという証書を発行するために、データを集めている。今年の3月には120のデータセンターが参加している。実際に何時これが発行されるかは現在不明。
原文はここ。
原文はここ。
2008年8月31日日曜日
エネルギー効率の証書
エネルギー効率の高いサーバーを選らぶ時の基準があれば良い。現在EPAはenergy starという証書をいくつかの製品や建物に対して発行している。これにサーバも加えようとしている。今年の終わりまでには発行の予定だ。これに関連して、業界の意見も聞いてそれを反映させようとしている。ストレッジのNetAppsやSNIAはストレッジも加えるべきだと主張している。日本の経済産業省からは電気は100Vで50サイクルの国もあるので、それも考慮して欲しいとのコメントを寄せていた。
原文はここ。
原文はここ。
2008年8月29日金曜日
ストレッジの話
SNIAというのは、ストレッジのベンダーのコンソシアムである。SNIAとしても、データセンターやITをエコに導くための活動をしている。現在EPAがサーバーにエネルギー節約の証明書を発行するための仕様を開発している。SNIAはストレッジもそれに含まれるべきだと主張しており、EPAも考慮するとしている。SNIAはエコに関してはGreen Storage Initiative (GSI)を立ち上げている。更に、Green Gridとも連携している。これは、Green Gridがエコ・データセンターで中心的な役割を果たし始めており、ストレッジはその中で大きな役割を果たすとしている。
原文ここ。
原文ここ。
2008年8月28日木曜日
UPSの不都合でデーターセンターが3日間シャットダウン
2-3の例だが、どんなに用意周到でも、問題は起こるという話。筆者のホスターを例に取る。ある金曜、電力会社からの配電が一時不安定になり、数秒配電が止まった。発電機が作動するほんの1分程度UPSが動作してサポートするはずであったが、作動しなかった。その後すぐ発電機が作動、また外からの供給も再開された。しかし、このため多くのサーバーがハード・リブート状態となった。ファイルがコラプトするものやディスクが潰れるものが続出して大混乱となった。当然、それぞれのサーバーに関して、fsckを行ったり、ディスクを交換してバックアップからファイルを戻したり、1つのサーバーに関して最高で10時間かかり、すべてのサーバー(200程度)を元に戻すのに、3日を要した。このとき筆者は日本に出張でいたが、フロリダのデータ・センターが回復するまで、3日間ウエブもメールも全く使えなかった。
原因はUPSのバッテリーが全く機能しなかったことだ。しかし、有効期間中で、交換まで数週間ありしかも、この問題が起きた次の週に交換する予定であった。どんなに、用意しても問題は起こる。この事故で、もう絶対にこのホスターを使わないという人とこれでもっと信頼性があがると思う人がいる。筆者は後者だ。冗長性は電力節減にはならないが、オペレーションが保障されないのではどうにもならない。この兼ね合いが難しい。
原文ここ。
原因はUPSのバッテリーが全く機能しなかったことだ。しかし、有効期間中で、交換まで数週間ありしかも、この問題が起きた次の週に交換する予定であった。どんなに、用意しても問題は起こる。この事故で、もう絶対にこのホスターを使わないという人とこれでもっと信頼性があがると思う人がいる。筆者は後者だ。冗長性は電力節減にはならないが、オペレーションが保障されないのではどうにもならない。この兼ね合いが難しい。
原文ここ。
2008年8月27日水曜日
Sunによる冷却方比較
データセンターの冷房・冷却に関してはいろいろと言われている。ラック毎のサーバーの密度が増えたため、部屋レベルの冷房だけでは十分冷却できないということだ。それでは、どのような方法が有効的なのか。部屋レベルの次は行レベル、そしてラックレベルの冷却方法が考えられる。更に、冷却も空気によるのか液体(水)によるのか。数多くのベンダーがこの幾つかのパラメーターを組み合わせた製品を提供している。
それぞれが、一番良いと主張している。そこで、Sunはそれならと自分のデータセンターに数社を招き実際にそれぞれの製品を使って実験をした。ここまではそれ程驚かないが、その結果を発表した。しかも、Sunで開かれたデータセンター関連のコンファレンスで。しかも、参加ベンダーの代表者をステージに上げて結果について分析した。かなりきつい質問もSunからでた。例えば、そのなかで、水を使用した冷却方法の会社の成績がすこぶる悪かった。公衆の面前で、その理由を求められたりで結構面白かった。
最近は水冷方式が見直されている。ただし、水の循環を保障する仕組みが必要なので、ラックの位置は制限される。途中でラックの仕切りなおしなどは困難である。
それにしても、某データベースのベンダーは自社の製品の性能を比較されたり、その結果を発表されることには大反対なのだが、それとは好対照だ。
原文ここ。
それぞれが、一番良いと主張している。そこで、Sunはそれならと自分のデータセンターに数社を招き実際にそれぞれの製品を使って実験をした。ここまではそれ程驚かないが、その結果を発表した。しかも、Sunで開かれたデータセンター関連のコンファレンスで。しかも、参加ベンダーの代表者をステージに上げて結果について分析した。かなりきつい質問もSunからでた。例えば、そのなかで、水を使用した冷却方法の会社の成績がすこぶる悪かった。公衆の面前で、その理由を求められたりで結構面白かった。
最近は水冷方式が見直されている。ただし、水の循環を保障する仕組みが必要なので、ラックの位置は制限される。途中でラックの仕切りなおしなどは困難である。
それにしても、某データベースのベンダーは自社の製品の性能を比較されたり、その結果を発表されることには大反対なのだが、それとは好対照だ。
原文ここ。
2008年8月26日火曜日
UPSの種類
UPSに関しては色々と言われている。現在まともに蓄電できるのは直流だけなので、供給される交流を一旦直流に変換して、蓄電させ更にまた交流に変換してIT機器に提供する。当然サーバー等の電源は直流を期待しているので、更に変換と。いう訳で、全部を直流にしてしまえという議論はある。それに関してははまた後で。
UPSのコンフィギュレーションにはいくつもあり、一番大きな差はPCなどの場合は通常UPSはオンラインではなく、オフラインで必要があるまではスタンバイだ。オンラインでも色々な種類がある。
UPSの問題は想像以上に大きい。UPSが正しく作動しなかったため、大きなHostingの会社が3日間オペレーションが止まった。UPSのバッテリーの問題だったが、有効期間中であったし、問題は全然予想できなかった。この例もまた後で。詳細は原文ここ。
UPSのコンフィギュレーションにはいくつもあり、一番大きな差はPCなどの場合は通常UPSはオンラインではなく、オフラインで必要があるまではスタンバイだ。オンラインでも色々な種類がある。
UPSの問題は想像以上に大きい。UPSが正しく作動しなかったため、大きなHostingの会社が3日間オペレーションが止まった。UPSのバッテリーの問題だったが、有効期間中であったし、問題は全然予想できなかった。この例もまた後で。詳細は原文ここ。
2008年8月25日月曜日
cloud computingとデータセンター
日本もアメリカもcloud computingバブルだけれど。Cloud computingのバックエンドはデータセンターだと指摘する人は少ない。これを支えるデータセンターがあってこそ、実装できるのだが。アメリカでのデータセンターの建設はほとんど毎日のようにメディアによってカバーされているが、どうも日本の方はそうでもないらしい。また、今はやりのエコ・データセンターも今ひとつらしい。電力は不足していないらしい。本当だろうか。一度、石油ショックがおこれば。。。。。。
データセンターの建設は色々な側面がある。
データセンターの建設は色々な側面がある。
- 村おこし、町おこし
- 税金軽減による誘致
- 人材確保
- その他
2008年8月24日日曜日
データセンターでのモニタリング
データセンターでのモニタリングと言えば、今まではネットワーク管理で、サーバーの健康管理であり、アプリの状態監視であった。これを提供する大手はアメリカでは、IBM、HP, BMCやCAだ。日本なら、日立、富士通、NECなどだろう。最近は電力消費や冷房・冷却の管理・監視をすることが重要になってきた。前者に必要なのは、configuration management data base (CMDB)で後者にはdata center infrastructure data base (DCIDB) でPDUやracksの情報を含む。
アメリカでは後者を提供するベンダーは:
原文はここ。
アメリカでは後者を提供するベンダーは:
原文はここ。
2008年8月22日金曜日
2008年8月21日木曜日
CIOがグリーンを採用するにあたっての圧力
さて、CIOはどうしてエコ・グリーンに走るかの理由は幾つかある。10の理由は第一から、1)CFOからの 電気代の費用節減は大きな圧力、2)更に、電気を潤沢に安定供給を受けられるかへの不安、3)CEOは単に費用節減だけではなく、社会的責任の問題も、4)法的な圧力。まだ法律はないがいずれは。。、5)IT機器ベンダーは差別化が必要、6)メディアは大いにこれを助長、7)競合もこれを差別化。8)generation Yはエコを標榜、9)従業員もこれに賛成、10)周りのコミュニティ。
やはりまだ、経費削減が一番大きい理由だ。 原文はここ。
やはりまだ、経費削減が一番大きい理由だ。 原文はここ。
2008年8月20日水曜日
コンソーシアム
昨日はアメリカ政府の取り組みについて書いたが、今日はそれと連帯するコンソーシアムの数々について。一番有名なのは、the green gridで大手を初め中小企業も参加している。日本からも、日立、富士通、NEC,NTTなどが参加している。今年5月には経済産業省、Jeita、グリーンIT推進協議会も提携した。現在green gridはデータセンターの効率を図る指標を開発中である。一番有名なのは、PUEで、(データセンターに投入された全ての電力)割る(IT機器が消費した全電力)と定義される。というとは、PUEが3であれば、IT 機器の電力消費を1とすれば、それをサポートするためのデータセンター内の電力消費は2倍ということになる。出来るだけ1に近づくのが効率化であるが、定義から絶対に1にはならないし、1よりは小さくならない。全電力はともかく、全てのIT機器による電力消費も入手が困難かもしれない。それと、この指標はある期間のある特定の時間での値で、電力消費は時と共に変化する。
このほかアメリカにはいくつものコンソーシアムが存在する。まだ、日本ではエコITたエコ・データセンターへの関心は薄い。 原文はここ。
このほかアメリカにはいくつものコンソーシアムが存在する。まだ、日本ではエコITたエコ・データセンターへの関心は薄い。 原文はここ。
2008年8月19日火曜日
アメリカ政府の取り組み
EPA (環境庁)とDoE(エネルギー省)が電力消費を削減するプログラムを推進している。EPAは多くのデータセンターの協力を得て、データセンターに関する情報を収集している。更に、Energy Starというエネルギー効率情報を示したステッカーを発行している。色々な電気機器や建物などに既に、チェックできるリストがある。これを最近サーバーに適用すべく、そのチェックをすべく仕様を開発している。多くのメーカーが参加して、意見を述べている。注目は日本の経産省が、世界には100Vで50サイクルの電源もあるから、それも考慮してくれというコメントが返されている。この仕様は今年中にはできるようだ。なお、サーバーだけでは困るというのが、NetAppsやSNIA(ストレッジの業界団体)からサーバーとストレッジは違うのでストレッジにも仕様をくれと要求して、EPAも考慮すると回答。ここで注目はCiscoをリーダーとするNetworkingの会社からの話しがないこと。Ciscoはデータセンター3.0ということで発表。この話はまた後。
DoEはITP, FEMP(政府内でのエネルギーの削減)とDC Pro。 DC Proはデータセンターに関する色々なパラメータを与えることで、電力消費の情報を提供してくれるものだ。更に、省庁を超えて、EPAのEnergy Star,ITPそしてFEMPはそれを統括するプログラムで調整されている。
原文はここ。
DoEはITP, FEMP(政府内でのエネルギーの削減)とDC Pro。 DC Proはデータセンターに関する色々なパラメータを与えることで、電力消費の情報を提供してくれるものだ。更に、省庁を超えて、EPAのEnergy Star,ITPそしてFEMPはそれを統括するプログラムで調整されている。
原文はここ。
2008年8月18日月曜日
プロセッサーとエコ・データセンター
Mooreの法則によれば、プロセッサの速度は18-24ヶ月毎に2倍になる。しかし、速度を上げるに従って消費電力が加速的に増加して、それによって生じる熱もばかにできなくなってきた。並列処理などを屈指てももう1つのプロセッサーの速度を上げるというだけでは、全体の処理能力を上げることは困難になってきた。このため、2つ以上のプロセッサーを使用して全体の処理能力を上げるマルチコアが普通になってきた。マルチコアがあれば、複数のスレッドを処理できる。特に、サーバーでは色々なタスクを並列処理できる。特に仮想化環境では有効であろう。しかし、このマルチコア化はクライントのPCにも適用されつつある。しかし、PCレベルではシングル・スレッドであることが多いのであまり役に立たないのかもしれない。今後並列処理できるプログラムが開発されなければ、あまりマルチコアの意味はない。
IntelやAMDなどのプロセッサのベンダーはマルチコア化も含め、製造方法やトランジスター・レベルでの電流の漏れなどを削減するなどの努力もなされている
原文はここ。
IntelやAMDなどのプロセッサのベンダーはマルチコア化も含め、製造方法やトランジスター・レベルでの電流の漏れなどを削減するなどの努力もなされている
原文はここ。
2008年8月17日日曜日
ファイバーか銅線か
データセンターでは今までは、銅線によるケーブルが値段の面で有利であった。そのためファイバーのEthernetで早いスピードが達成されると、銅線でそれを実現する努力が続けられた。ところが、1Gbpsの辺りから、機器のポート辺りの値段を考えると、ファイバーが一概に値段が割高で使用しないということにならなくなってきた。今までのデータセンターは冷房と配線のために上げ底にするのが常だった。銅線は重くかさばるので、床下を這わせるのが最適であった。
値段の面からファイバーが見直されてくると、ファイバーは銅線に比べて軽いし、またかさばらないので、必ずしも床下を這わす必要がない。むしろラックの上に吊るというオプションも成り立つ。上げ底のフロアーであれば、かさばる回線が冷たい空気の流れを遮ることもしばしば起こるので、これはそれへの改善だ。更に冷房・冷却の方法で、部屋ベースから列ベースやラック・ベースになってくると必ずしも上げ底は必要とは言えなくなってくる。上げ底をやると支えることのできる重さに制限が出てくるからだ。
原文はここ。
値段の面からファイバーが見直されてくると、ファイバーは銅線に比べて軽いし、またかさばらないので、必ずしも床下を這わす必要がない。むしろラックの上に吊るというオプションも成り立つ。上げ底のフロアーであれば、かさばる回線が冷たい空気の流れを遮ることもしばしば起こるので、これはそれへの改善だ。更に冷房・冷却の方法で、部屋ベースから列ベースやラック・ベースになってくると必ずしも上げ底は必要とは言えなくなってくる。上げ底をやると支えることのできる重さに制限が出てくるからだ。
原文はここ。
2008年8月16日土曜日
電力配送 -- 続き
昨日のブログで、交流でデータセンターに電力を提供すると何回も交流・直流変換をしなくても良いので、直流による電力配給の話が盛んであると述べた。そこに、冷たい水をぶっ掛けたのが、Neil RasumessenというAPC社のCTOだ。彼の主張は現在の電力機器の効率はかなり上がっており、直流派は以前の古いデータに基づいて議論していると非難している。今の最新の機器を使用すれば、直流の解に比べても遜色のない程度になっていると主張している。更に、現在のIT機器、サーバーなんかは直接直流を受け取ることが出来ず、それを出来るようにするには大規模の改造が必要である。更に、既存のサーバーを全部取り替えられなければならず、むしろヨーロッパの基準の400/230Vの交流にすれば良いと言っている。また、既存のサーバーや他のIT機器は400/230Vを受け取ることができると。これに限らず、彼のこの他の主張も非常に説得力がある。ハイプと本当を嗅ぎ分けることが肝要だ。
原文はここ。
原文はここ。
2008年8月15日金曜日
データセンターの電力配送
データセンターには、電力会社から交流電力が供給される。幾つかのコンフィギュレーションはあるのものの、通常はこの電力は一旦直流に変換されて、UPS内のバッテリーを通過して、更にもう一度交流に変換されて、最終的にIT機器へと配送される。変換毎に数パーセントのロスが生じる。変換なければ、ロスは起こらない。Green Gridは幾つかの電力配送のオプションを上げている。
- 480V AC
- 600V AC
- 277V AC
- 400V AC
- 48V DC
- 550V DC
- 380V DC
2008年8月14日木曜日
コンテナ型データセンター
データセンターを建設する際、他の建物の設計のように色々な要素を考慮することが必要だ。ソフトでもハードでも大きなでかい塊としてとらえるよりも、小さくて良く定義されて分かりやすい塊としてとらえた方が設計の時間やバグが少ないと知られている。 これをデータセンターに応用しようということで、工業用のコンテナに、ラック一杯のサーバーや必要な電力・冷房装置も設置して、全てコンフィギュレーションも済まして、ロゴのように置くだけでデータセンターのbuilding blockとして使用するようにした。
ハードはどうせ安いし、へたに人間が問題を解決しようとすると、人件費が掛かるだけでなく、また人によるミスも多いということで、ハードは潰れればfail overなどで処理して、ほったらかしにしようという手法だ。簡単な問題の処理は、リモートで解消する。ある一定以上のハードに不都合が起こった場合は、コンテナごと取り替える。
まだあまり、実績はないが、大手のMS, IBM, HP, SunやGoogleもコンテナ型のbuilding blockを発表している。専門家達のなかには、この手法に疑問を抱く者もいるが、実際にMSはシカゴ近郊のデータセンターで応用するとのことだ。 実際の使用によってこれが正しいかどうか分かる。
原文はここ。
ハードはどうせ安いし、へたに人間が問題を解決しようとすると、人件費が掛かるだけでなく、また人によるミスも多いということで、ハードは潰れればfail overなどで処理して、ほったらかしにしようという手法だ。簡単な問題の処理は、リモートで解消する。ある一定以上のハードに不都合が起こった場合は、コンテナごと取り替える。
まだあまり、実績はないが、大手のMS, IBM, HP, SunやGoogleもコンテナ型のbuilding blockを発表している。専門家達のなかには、この手法に疑問を抱く者もいるが、実際にMSはシカゴ近郊のデータセンターで応用するとのことだ。 実際の使用によってこれが正しいかどうか分かる。
原文はここ。
2008年8月13日水曜日
データセンターの冷やし方
データセンターはつい最近まで、フロアー全体を冷やす方法で十分だった。大体ラック辺り1-2kW程度の冷房エネルギーで十分だったけれど、blade severが浸透するにしたがって、10kW から20kW更には30kW程度までに達している。これを解決するには、rowベースかrackベースで対応するしかない。実際にはデータセンター内で、電力消費が均一ということはない。というか、同じrackでも時間やアクセスによって消費電力がダイナミックに変化する。また、サーバーやその他の機器は頻繁に入れ替えられたり、そのものの寿命(サーバーは3年程度で総替え?)が短期間であることも多い。
このため、リアルタイムでrack毎に電力消費や温度の動きをモニターして、状況に応じて冷房エネルギーを増加・減少する必要がある。room毎冷房はなくならないが、rowとrackベースを併用することでIT機器の冷却の効率を増加できる。最近のニュースではMSがEPAと組rack毎にzigbeeベースのセンサーを利用してモニターしているそうだ。
row/rackベースを上手に併用するとフロアーを上げて、床の下を冷たい空気を送る必要がなくなるかもしれない。
原文はここ。
このため、リアルタイムでrack毎に電力消費や温度の動きをモニターして、状況に応じて冷房エネルギーを増加・減少する必要がある。room毎冷房はなくならないが、rowとrackベースを併用することでIT機器の冷却の効率を増加できる。最近のニュースではMSがEPAと組rack毎にzigbeeベースのセンサーを利用してモニターしているそうだ。
row/rackベースを上手に併用するとフロアーを上げて、床の下を冷たい空気を送る必要がなくなるかもしれない。
原文はここ。
2008年8月12日火曜日
データセンターのメトリック
昔から言われることだが、計測できないものは、改善できない。それでは、データセンターはどうだろうか。昨日のブログにあるように、供給された全電力のわずか3分の1しか実際のIT機器に使われないとしたら。。。という以前にそれすら知らなかったらということもある。実際の3分の1とか半分とか、75%ととか色々な値が市場にあふれている。The Green Gridは2つのメトリックを定義した。Power Usage Effectiveness (PUE)とdata center infrastructure efficiency (DCiE)である。定義は簡単で、PUE = (全データセンターの消費電力量)/ (IT機器で消費される全電力量)で、DCiEは 1/ PUEである。ということは、PUEが小さければ小さいだけ効率が良いということで、PUE3というとIT機器を動作させるのに余計に2倍の電力消費がかかるということだ。DCiEはその反対で、全体にの電力に占めるIT機器の消費電力の割合いだ。
「うちのデータセンターは前はPUEが1.8だったんだが、今は色々と工夫して1.3まで下げたよ。」なんていうといかにも、データセンターのオペレーションに詳しいよう聞こえるのではないだろうか。
原文はここ。
「うちのデータセンターは前はPUEが1.8だったんだが、今は色々と工夫して1.3まで下げたよ。」なんていうといかにも、データセンターのオペレーションに詳しいよう聞こえるのではないだろうか。
原文はここ。
2008年8月11日月曜日
データセンターでの消費電力配分
2008年8月10日日曜日
検証 --> EPAの報告書
EPAの報告書が発表された後、何社かが実際にこれを検証しようと計り、サンのデータセンターで実際に11のケースを元に実証した。EPAのレポートでは研究機関のLawrence BerkeleyがIDCと共同でサーバーの増加率などをベースにしたもので、それなりの意義はあったが実際のデータによるものではなかった。
そのためSilicon Valley Leadership GroupとAccentureが中心となり全部で29社が集まった。詳細は原文にあるが、大部分のEPAの結論は正しいということで、かなりのbest practicesを適応することで、既存のデータセンターでもかなり電力削減を達成できる。元のEPAのレポートは133ページもあり読むのに一苦労だ。この検証レポートはAccentureが取りまとめて、Executive summary(9枚)と完全レポート(27枚)を発行している。このレポートは全て原文にダウンロードできる場所を示しているので参照のこと。こちらの方だけでも十分様子は分かるとおもう。サンが絡んでいることもあり、他の主な会社は含まれていない。例えば、HP, Cisco, MS, Oracleなどだ。IBMは冷房技術の部門は参加したが、後は比較的小さい会社。
そのためSilicon Valley Leadership GroupとAccentureが中心となり全部で29社が集まった。詳細は原文にあるが、大部分のEPAの結論は正しいということで、かなりのbest practicesを適応することで、既存のデータセンターでもかなり電力削減を達成できる。元のEPAのレポートは133ページもあり読むのに一苦労だ。この検証レポートはAccentureが取りまとめて、Executive summary(9枚)と完全レポート(27枚)を発行している。このレポートは全て原文にダウンロードできる場所を示しているので参照のこと。こちらの方だけでも十分様子は分かるとおもう。サンが絡んでいることもあり、他の主な会社は含まれていない。例えば、HP, Cisco, MS, Oracleなどだ。IBMは冷房技術の部門は参加したが、後は比較的小さい会社。
2008年8月9日土曜日
EPAの報告書
このブログはwww.altaterra.netのブログを簡単にまとめたものである。現在原文(英語)を読むためには簡単な無料の登録が必要であるが、読むだけであれば登録なしで読めるように現在作業中である。原文に必要なリンクは存在するため、ここでは繰り返さない。なお、時間の関係で、原文の要約となっている。また原文と違い校正も編集もないため、非常に生の文章であるので、ご容赦を。詳細は原文を。
EPAは米国の環境庁である。2006年に米国議会は、データセンターでの電力使用に関する現状と将来の予想の報告をEPAに命令した。これを受け、EPAは2007年にLawrence Berkeley研究所やIDCの助けを受け長いレポートを発表した。これによると2002年から2006年の間にデータセンターで消費された電力は2倍になり、2006年には全米の総電力の1.5%となるとのこと。また、このまま何もしないと2010年には更に2倍になると予想される。一番消費に関わっているのはサーバーだ。それもいわゆるvolume serverと言われるもので、X68ベースでLinuxをがんがん走らせているものだ。
1.5%というと少ない様に思うが、全米のカラーTVの消費量や交通関係の製造業者が使う電力に匹敵する。現在米国は色々な制約から新たに発電所を建設できない。今から、新たに建設しても間に合わない。 また、あるレポートによると2008以降、50%程度のデータセンターは電力不足で、増設できないという。電力消費を抑えることは急務となった。
原文のブログはここ。
EPAは米国の環境庁である。2006年に米国議会は、データセンターでの電力使用に関する現状と将来の予想の報告をEPAに命令した。これを受け、EPAは2007年にLawrence Berkeley研究所やIDCの助けを受け長いレポートを発表した。これによると2002年から2006年の間にデータセンターで消費された電力は2倍になり、2006年には全米の総電力の1.5%となるとのこと。また、このまま何もしないと2010年には更に2倍になると予想される。一番消費に関わっているのはサーバーだ。それもいわゆるvolume serverと言われるもので、X68ベースでLinuxをがんがん走らせているものだ。
1.5%というと少ない様に思うが、全米のカラーTVの消費量や交通関係の製造業者が使う電力に匹敵する。現在米国は色々な制約から新たに発電所を建設できない。今から、新たに建設しても間に合わない。 また、あるレポートによると2008以降、50%程度のデータセンターは電力不足で、増設できないという。電力消費を抑えることは急務となった。
原文のブログはここ。
登録:
投稿 (Atom)