パスワードを忘れた? アカウント作成
107995 story
ハードウェア

ブレードサーバ使っていますか? 120

ストーリー by hayakawa
身の回りだと、ブレードサーバを使う機会があまりないんですよねぇ 部門より

TonboDama 曰く、

Xeon 5500の搭載のブレードサーバも見かける今日この頃。ブレードサーバが世に出て10年弱ぐらいだと記憶しておりますが皆さん使われていますでしょうか。私の周辺では、システム新規導入のたびに「ブレードサーバ」という話は出るのですが、電力密度や重量、1台あたりの単価の問題などの理由で薄いサーバばかり買っています。

皆さんがブレードサーバを導入して良かった/残念だったなどあれば教えてください。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • アレだった件 (スコア:5, 参考になる)

    by Anonymous Coward on 2009年06月14日 16時21分 (#1586212)

    いままで聞いたことあるブレードサーバ関連の出来事

    ・床の耐荷重間違えて、42Uラックが倒壊。幸い稼働開始前で、機器とラック自体は無事
    ・稼働させたら壁越しでも騒音がひどすぎてクレーム。防音ラック導入まで半年ほど稼働できず
    ・データセンターの1ラックあたりの熱容量+電源容量の制限からブレード筐体が1つしか入れることができない。

    • Re:アレだった件 (スコア:1, おもしろおかしい)

      by Anonymous Coward on 2009年06月14日 23時17分 (#1586409)
      ・使いたいスペックのブレードを実装しようとすると電源容量の関係で実装できる枚数が制限された。
      ・電源に200V(3相)が必要で追加契約と工事が必要になった。
      ・L2SWとかネットワーク機器も収容可能だけど高くて予算に収まらなかった。
      ・ブレードが故障したから交換しようとしたがディスコンで交換できなかった。
      ・シャーシの大きさがラックの奥行きより大きくて、ラックの買い直しが発生した。
      ・ラックには何とか入ったけどドアと干渉して閉まりにくくなった。
      ・あるメーカのブレードサーバでは繋がるストレージに動作確認済みの物以外の使用は出来ないため予算に収まる物を探すのが大変だった。
      親コメント
  • 替え玉 (スコア:5, 参考になる)

    by gonta (11642) on 2009年06月14日 17時02分 (#1586236) 日記

    ラーメンの話ではなく、ブレードの中のマシン1台1台のことです。

    各社性能のいいマシンを”玉”として用意していますが、あれ、いまだに同等スペックのタワー型に比べ、割高なんですよね。タワー型ユーザからは「わざわざ高いのに買うこったぁねぇ。」で一蹴。

    だから、単位面積あたりの設置台数を増やしたいならいいんですが、ある程度設置面積確保できている環境では、割高以外の何者でもない。ましてや、ディスクやメモリの増設やら何やらで小回り効くか?といえばそうでもないし(そういうこと言わない人が買うんでしょうが)。

    ということで、いまだにタワー型が80台並んでいる環境におります。ブレードは、展示会とかで、たまに見かける程度です。

    --
    -- gonta --
    "May Macintosh be with you"
  • by Anonymous Coward on 2009年06月14日 16時07分 (#1586204)
    ブレードサーバメーカーの言う要求電源容量を満たせるデータセンタを
    まず教えて欲しい。

    「拡張性が犠牲になる代わりに集約して場所代を節約しましょう」
    というのがウリなのに集約すら無理なデータセンターが多すぎる。

    そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
    なるから、使う用途がなくてもブレードをフル搭載で買わないとあとで泣
    きを見る。(=無駄な投資が多くなる)

    ブレードとストレージをセットで買う目的の1つとして、SANからbootして
    「ブレードは単に計算させるだけの機械」にし、bootイメージを差し替え
    つつサーバリソースの再配分なんてことも、VMwareを使えばベンダーを
    殆ど選ばず簡単にしかも安価で同じような事が出来る。電源効率とCPU負荷
    を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。
    • by ogino (1668) on 2009年06月14日 17時03分 (#1586237) 日記

      ブレードサーバメーカーの言う要求電源容量を満たせるデータセンタをまず教えて欲しい。

      中部で、しかも今年9月からですが、中部テレコミュニケーションの新しいデータセンター [business.ctc.jp]は

      また、ブレードサーバにも対応した大容量電源環境(1ラックあたり2〜15KVA)で、自由度の高いサーバ構成が可能です。

      だそうです。これなら足りますか?

      中部テレコミュニケーションは元々は中部電力系ですので、他でも電力系のデータセンターなら電源容量を売りにしているところもあるのではないでしょうか。

      親コメント
    • by Anonymous Coward on 2009年06月14日 16時29分 (#1586220)
      ブレードサーバで高集約なホスティングサービスを目指してたようですが、
      http://www.kddi.com/business/senyo_server/index.html [kddi.com]
      新規受付終了だそうです。

      キイナハですけど、KDDIクラスの新設の高規格iDC(渋谷)でも、
      ラック1本にシャーシ2台が限度だったっぽいですよ、電気も重量も。

      結局、高集約するとなれば、電力密度の問題があって、
      地理的集約ってのは、度を過ぎると悪癖がでるんじゃないかな。
      親コメント
    • そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに なるから、使う用途がなくてもブレードをフル搭載で買わないとあとで泣 きを見る。(=無駄な投資が多くなる)

      SIerに「必要になったら、その分追加していけばよく、1枚あたりのコストは1Uサーバより低いです」などと言われて食いついた後の末路が、正にそれですね。

      電源の問題、耐荷重の問題、冷却の設備の問題と、実はブレードを導入するメリットは限定的だなと感じてます。

      親コメント
    • まず、それ貴方のまわりのデータセンターが

      タコ

      なだけでは?

      100Vで動くブレードもあるんですよ?

      > そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに

      それは、貴方がそんなメーカばかり選定しているからでしょう?
      ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。

      > を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。

      あのー、ブレードにすれば、

      - 同じU数なら集積度向上
      - 故障部品はシャーシへ集約
      - もし壊れてもブレード差し替えるだけ

      ...といろいろメリットあるんですけど、一度、『ブレードを使ったことのある』SIerとかメーカさんの説明うけたほうがいいかもね。営業トークにだまされてはいけませんが(w
      親コメント
      • サブジェクトが「過去の遺物くん」に見えた……

        それはおいといて,

        > > そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
        > それは、貴方がそんなメーカばかり選定しているからでしょう?
        > ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。

        どこのメーカーが互換性を維持していて,(知っているのなら)維持していないメーカーはどこか教えて
        いただけると参考になります。

        ちなみに私は VMware は使ったことがあるけどブレードは使ったことがない人なんで 1U か 2Uサーバ +
        VMware でいいじゃんという考えなんですが,VMware と比較してブレードサーバにメリットがあるという
        話があれば教えていただきたいです。

        #ブレードサーバに VMware を載せるといった話があったけど,自分が働いているときに実現しなかった
        #ので余計興味があったり。

        親コメント
        • by Anonymous Coward on 2009年06月14日 20時06分 (#1586333)

          元ACとは別人だけれど。

          過去の筐体(ブレードの入れ物)に最新のブレードサーバを挿せること、をさして互換性というなら

          IBMは互換性を維持していて、HPは維持していないはず。

          親コメント
      • >もし壊れてもブレード差し替えるだけ

        そんなの、仮想化ノード間で仮想マシン移動させればいいだけ。
        16コアとか24コアのサーバで仮想化するほうが集約しやすいと思うけど。

        --
        屍体メモ [windy.cx]
        親コメント
  • 他の人も書いているけど、ブレードシャーシを満載できるようなラックは見たことがないですね。データセンタの電源容量が不足するので、そういった搭載ができません。結局1ラックに搭載できる物理サーバ数は、ラックマウントサーバでも、ブレードサーバでも変わりません。(私の関わっているデータセンタに限っていえば)

    それに導入済みブレードシャーシに搭載できるブレードサーバが、3年後、5年後に現役で販売されているかというと保障はないよね。
    ブレードサーバの拡張性(NICとか)が限られていることと、管理運用のためのツールがブレードサーバ用に別ものになるので運用ノウハウの蓄積が必要になるといった面でもコストが掛かる。
    こんな感じでブレード単体で見ると良くないところも目立つよね。

    結論としてはやっぱり、データセンタの1ラック当たりの電源容量が2倍とか、3倍とかになってくれないとメリットを見いだしにくいですね。

    データセンタは停電に備えて大規模な電源設備が必要なため、急にラック当たりの電源容量を増やすことができないはずです。なので、もともと電源容量の大きかったデータセンタ(なぜコストを掛けて無駄に電源設備を用意したのか?)か、つい最近できた/電源設備強化したデータセンタでないとそうした電源は用意できないのではないかなぁ。
  • by bugbird (4706) on 2009年06月14日 19時36分 (#1586323) ホームページ 日記

    第三世代になると FC スイッチと L2/3 スイッチがシャシーに搭載された結果、シャシーから出て行くケーブルは電源ケーブルと光ケーブルだけになったから、随分世話が楽になりましたよ。シャシーに搭載されているモニタシステムのおかげで、n+m な冗長管理も自動化されてますし(フィンガープリントでライセンス管理をしてる某 M 方面な OS ではブレードがかわると「海賊版」としてはねられてしまうので、少なからず騒ぎとなりましたが)。あと、HP の iLO みたいなモニタシステムがシャシーに搭載されているのも大きいですね。IP 越しに BIOS 画面をいじれるだけじゃなくて、手元 PC の光ドライブをリモートマウントさせてインストール作業できますから。

    まぁ、弱点は高集約度故の問題ですね < 消費電力&床荷重 汎用機を置いていた様な小規模データセンター(銀行統合化の結果、結構都内各所に実在してるのよね)だと、かなり辛い(電力回路を増設してラックに下駄(スキー)を履かせないと設置できない)。

    --
    --- Toshiboumi bugbird Ohta
  • SunBlade (スコア:4, 興味深い)

    by gc00004 (37765) on 2009年06月14日 21時56分 (#1586378) 日記
    1500じゃないですが。

    SunBlade6000はSPARCチップのほかにINTEL,AMDのCPUが搭載可能ということでしたが、
    ・LAN,FC,電源などの配線はブレード毎にすべて外だし
    ・200V電源4系統必須
    ・SPARC系ブレードはシャーシからの電源ON/OFFが不可能(T6300だけ?)
    ・数年後ディスコンが決定済み(いつかは忘れてしまいましたが・・・)
    とブレードサーバのメリットをあまり享受できないシロモノでした。
    配線はぐちゃぐちゃになるわ、ALOMにバグがあって/var/adm/messages(Solaris)にNEM 0がはずれた(Ethernetボードが取り外された!)と誤検知を1日に数回出力されてしまって、ログを汚されるわで。。。

    1Uのサーバを台数分並べたほうが絶対楽だと思いました。。。
  • ブレード使ってるよ (スコア:3, おもしろおかしい)

    by 127.0.0.1 (33105) on 2009年06月14日 17時04分 (#1586238) 日記

    ブレードサーバー使ってるよ!

    MacBook Airを開発環境にして、サーバーも動かしてる。
    文字通り見た目はブレード。ケーキも切れる。 [engadget.com]
    忍者が持てば首をはねることもできそう。

    #いや忍者は素手の方が強いだろというツッコミはなしで

  • by bosturbo (26850) on 2009年06月14日 21時03分 (#1586355) 日記

    追加構築の終わったブレードを運用環境へ持ってゆく。あとは挿すだけ。ケーブリングなんて要らない。

    パーツが故障したようだ。メーカを呼んで保守サポートを受ける。壊れたブレードはいきなり抜いて良し。はずすケーブルのチェックなんて要らない。

    ラックにあと2U挿せたっけ。無理だ埋まってる。でもブレードなら4枚分空いてる。よしラック増設とラック間配線は要らないな。ということがたまにある。

    こんなのは良さそうな点。

    騒音が大きい、重い、高いというのは、気になる環境でなければ問題ないので気にしない。

  • ウィークポイント (スコア:3, すばらしい洞察)

    by Anonymous Coward on 2009年06月14日 23時53分 (#1586419)

    昔保守員やってたことがある立場からブレードを見ると、シャーシのリコール出たらどうすんのよと思います。
    少しでもインテリジェントな機能がシャーシ側に付いていたり、スロットからの配線に問題があって...なんてことが発覚してバックボードの交換なんて事態になったら1シャーシに詰まってる総てのブレードを止めなきゃならなくなるという。

    システムのクリティカルなところって、替えが利かないところになるんですよね。その意味でちょっとブレードはおすすめしかねるなぁと。
    今までシャーシ側のリコール対応はしたことないけども、いざやることになったらきついなあと前から思ってました。

  • 配線が楽 (スコア:2, 参考になる)

    by Anonymous Coward on 2009年06月14日 17時10分 (#1586242)
    これに尽きる。
  • by Anonymous Coward on 2009年06月15日 11時55分 (#1586548)

    ウチの社はレンタルでブレードサーバを大量に入れてますが、ラックまで投資が回らないので、
    大部分はスチールラックにプラスチックバンドで固定してるだけです。
    ブレードの意味ないじゃん・・・

  • 僕みたいにそっち方面じゃない人にとっては都市伝説のような物です。

    # サーバーといえばフルタワーとミニタワーの組合せ

  • 自分の身の回りにあるPCサーバーと言えば、ブレードがほとんどになってしまいましたが...
    • by TonboDama (31248) on 2009年06月14日 20時39分 (#1586344)

      タレコミ人です。

      せっかくなのでブレード導入の感覚を出してみました。
      42Uラックを埋めるとどうなるのか...
      えーっと電力がすごいことに。重量も普通のDCでも床が抜けるよね。
      (HPは1枚のブレードに2台のマシンがはいっているようだけど、無理やりじゃ..)

      kailasさんのところは、どういうところに入れて、メリットは何を感じているのでしょうか。

      ○IBM
      シャーシ:IBM BladeCenter S....7Uのエンクロージャーでブレードが6個格納。1ラック最大36個のブレードが格納。
                        シャーシの最大構成で108kg/台なので648kg/ラック
      ブレード:IBM BladeCenter HS22が80Wらしいので36倍で 2,880Wかな。単体の重量不明

      ○HP
      シャーシ:HP BladeSystem c7000....10Uのエンクロージャーでブレードが16台格納。1ラック最大64個のブレードが格納。
                        最大重量217kgなので868kg/ラック
      ブレード:HP ProLiant BL2x220c の消費電力はPDFによると16台で5,850W、4倍で23,400W

      親コメント
      • by kailas (1249) on 2009年06月15日 20時13分 (#1586764) ホームページ 日記
        Bladeの採用箇所はフロント系です。Webサーバ(含むWebSphere, WebLogic)もあれば、CitrixのXenAppってなパターンもあります。バックエンド系はUNIX(Solaris or AIX)でOracleかDB2なので、こちらは単体のサーバーになります。うちも、IBMとHPのBladeしか入ってません。
        物理的な制約ですが、IBMのDS8100(931)とかは最大重量1189kgで消費電力は5.8kVAなので、そんなものかなと。
        Bladeに特段の魅力を感じて入れているわけじゃないですが、Bladeのメリットというと...どなたかが書かれていましたが配線は大きいですね。物理的な配線だけでなく、Blade間通信は内部のバックプレーンで済むとか。
        昨今はVMwareやXenServerも検討してますが、ハイパーバイザー自身の監視をどうするか?とかで思案中です。
        親コメント
    • by Anonymous Coward on 2009年06月14日 16時56分 (#1586232)

      ほんとに?
      ブレードにした理由って何?

      他の人も述べてる電力密度や空調の問題で単位面積あたりの設置可能数は普通のラックマウントと変わらない(下手すりゃ悪化),
      かつてから指摘されていてベンダー間非互換性が未だ解決されていない,
      トラブルやメンテ時における代替機調達の困難さ,
      現状の不人気を鑑みるに, メーカーがかつて謳っていたブレード差し替え用アップグレードパスが今後も継続して提供されるとは思えない,
      近年の多コアCPUによって普通のラックで1Uあたり8コアや12コア並列なんてのが当たり前のように格安で実現している,

      これらのを上回るブレードのメリットってなんでしょうか?

      親コメント
  • by Anonymous Coward on 2009年06月14日 17時36分 (#1586262)

    ブレードって設置面積で課金されるデータセンターや初めからフル搭載してWeb系のフロントサイドサーバにするしか
    役に立たないなぁと思います。大抵の大きな会社は巨大な内線交換機をダウンサイジングや撤去した
    マシンルームの床が余ってるのが現状で、それならラック5本くらい入れちゃえ、
    ブレードは1Uより安くなったら考えるけどメリットないね、というところですね。強いて言えば電源の単一障害点を減らせる
    くらいかな。でもVMが流行りだしてブレードがいつの間にかブックになって1Uとそんなに変わらんという。

    シャーシを1台のサーバに見せて、刺すのはCPUやメモリのカードでNUMA構成可能でスケーラビリティがある、なら
    メリットも出てきますが、現状スペース圧縮にしかなってない。これは弱いねと。

    それより問題はストレージなんですが、なんかどうにかならんですかね。SANアレイ高杉

    • by TonboDama (31248) on 2009年06月14日 20時48分 (#1586346)

      > それより問題はストレージなんですが、なんかどうにかならんですかね。SANアレイ高杉

      高いですよね。ブレードのメリットのSANブートなどなど、実現しようとするとまわりが妙に高くなりまして。
      仮想化もミドルがついていかない(仮想化の想定が無いライセンスとか動作保証外とか)事が多いし。

      親コメント
  • by backyarD (36899) on 2009年06月14日 17時57分 (#1586273) 日記

    周囲の決定権のある方々は、「あんなのはメーカーの販売戦略だ。よって不要!」的な意見が多く、
    稼働しているものは当然、採用検討のテーブルに上がるのすら見たことすらありません。
    展示会でしか見てない。

    おまけに、ある若手マネージャなど、ラックマウントサーバーを指して顧客に
    「ブレードが」
    とか言い出す始末。
    というわけで、「1Uのラックマウントブレード(と呼ばれている)サーバー」しか見たことないですねぇ(笑)

  • by Anonymous Coward on 2009年06月14日 19時05分 (#1586305)

    ノートPCか、それに似た小型PCを数台置くだけで十分

  • by Anonymous Coward on 2009年06月14日 21時19分 (#1586359)

    ブレードなんか使わずに低電力の高密度サーバ使ってるような気がしますが。
    http://www.rackable.com/products/microslice.aspx?nid=servers_5 [rackable.com]

    ホントに止まったら困る環境では、物理サーバの交換なんか待ってられないから
    Xenとかで素直に仮想化してるだろうし。

  • すみません、うちの会社ではそこら辺に転がってたデスクトップPCを
    サーバーとして運用してます。
    OSはLinux。
    お金はかからなかったけど・・・・。
    (人件費は除きます)

    ほら、課長。
    操作方法(OSインストールから運用まで)を一から全て書いたドキュメントを作りましたよ(lsコマンドの使い方など)。
    だから、あなたも覚えてくださいよ。
    やだなぁ、簡単ですって。
  • by Anonymous Coward on 2009年06月14日 22時50分 (#1586396)
    ブレードの利点は、小さくて、たくさん設置しても場所をとらないことで
    半面、それだけの密度で設置した場合の、電流量や熱量の問題が致命的。
    ということでいいんですよね。

    じゃあ、オフィスの10台程度のPCをブレード化するソリューションとか
    家庭に導入される、各種のコンピューター機器がブレード化(標準筐体化)
    してしまう未来ってのは来ないものでしょうか?

    乱雑に散らばる、HDDレコーダーとかゲーム機とかパソコンとか
    あれ、どうにかなんないのかなぁ…
typodupeerror

吾輩はリファレンスである。名前はまだ無い -- perlの中の人

読み込み中...