ブレードサーバ使っていますか? 120
ストーリー by hayakawa
身の回りだと、ブレードサーバを使う機会があまりないんですよねぇ 部門より
身の回りだと、ブレードサーバを使う機会があまりないんですよねぇ 部門より
TonboDama 曰く、
Xeon 5500の搭載のブレードサーバも見かける今日この頃。ブレードサーバが世に出て10年弱ぐらいだと記憶しておりますが皆さん使われていますでしょうか。私の周辺では、システム新規導入のたびに「ブレードサーバ」という話は出るのですが、電力密度や重量、1台あたりの単価の問題などの理由で薄いサーバばかり買っています。
皆さんがブレードサーバを導入して良かった/残念だったなどあれば教えてください。
アレだった件 (スコア:5, 参考になる)
いままで聞いたことあるブレードサーバ関連の出来事
・床の耐荷重間違えて、42Uラックが倒壊。幸い稼働開始前で、機器とラック自体は無事
・稼働させたら壁越しでも騒音がひどすぎてクレーム。防音ラック導入まで半年ほど稼働できず
・データセンターの1ラックあたりの熱容量+電源容量の制限からブレード筐体が1つしか入れることができない。
Re:アレだった件 (スコア:1, おもしろおかしい)
・電源に200V(3相)が必要で追加契約と工事が必要になった。
・L2SWとかネットワーク機器も収容可能だけど高くて予算に収まらなかった。
・ブレードが故障したから交換しようとしたがディスコンで交換できなかった。
・シャーシの大きさがラックの奥行きより大きくて、ラックの買い直しが発生した。
・ラックには何とか入ったけどドアと干渉して閉まりにくくなった。
・あるメーカのブレードサーバでは繋がるストレージに動作確認済みの物以外の使用は出来ないため予算に収まる物を探すのが大変だった。
替え玉 (スコア:5, 参考になる)
ラーメンの話ではなく、ブレードの中のマシン1台1台のことです。
各社性能のいいマシンを”玉”として用意していますが、あれ、いまだに同等スペックのタワー型に比べ、割高なんですよね。タワー型ユーザからは「わざわざ高いのに買うこったぁねぇ。」で一蹴。
だから、単位面積あたりの設置台数を増やしたいならいいんですが、ある程度設置面積確保できている環境では、割高以外の何者でもない。ましてや、ディスクやメモリの増設やら何やらで小回り効くか?といえばそうでもないし(そういうこと言わない人が買うんでしょうが)。
ということで、いまだにタワー型が80台並んでいる環境におります。ブレードは、展示会とかで、たまに見かける程度です。
-- gonta --
"May Macintosh be with you"
Re:替え玉 (スコア:2, 参考になる)
各社性能のいいマシンを”玉”として用意していますが、あれ、いまだに同等スペックのタワー型に比べ、割高なんですよね。タワー型ユーザからは「わざわざ高いのに買うこったぁねぇ。」で一蹴。
Googleのデータセンターも似たような発想 [cnet.com]のようですね。
ただ、タワー型をそのまま使うってことはなくて、筐体は外してつかってるとかなんとか。
Re:替え玉 (スコア:1)
アメリカなら場所代は安いかも。
すでに過去の遺物 (スコア:4, 参考になる)
まず教えて欲しい。
「拡張性が犠牲になる代わりに集約して場所代を節約しましょう」
というのがウリなのに集約すら無理なデータセンターが多すぎる。
そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
なるから、使う用途がなくてもブレードをフル搭載で買わないとあとで泣
きを見る。(=無駄な投資が多くなる)
ブレードとストレージをセットで買う目的の1つとして、SANからbootして
「ブレードは単に計算させるだけの機械」にし、bootイメージを差し替え
つつサーバリソースの再配分なんてことも、VMwareを使えばベンダーを
殆ど選ばず簡単にしかも安価で同じような事が出来る。電源効率とCPU負荷
を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。
Re:すでに過去の遺物 (スコア:3, 参考になる)
中部で、しかも今年9月からですが、中部テレコミュニケーションの新しいデータセンター [business.ctc.jp]は
だそうです。これなら足りますか?
中部テレコミュニケーションは元々は中部電力系ですので、他でも電力系のデータセンターなら電源容量を売りにしているところもあるのではないでしょうか。
Re:すでに過去の遺物 (スコア:2, 参考になる)
http://www.kddi.com/business/senyo_server/index.html [kddi.com]
新規受付終了だそうです。
キイナハですけど、KDDIクラスの新設の高規格iDC(渋谷)でも、
ラック1本にシャーシ2台が限度だったっぽいですよ、電気も重量も。
結局、高集約するとなれば、電力密度の問題があって、
地理的集約ってのは、度を過ぎると悪癖がでるんじゃないかな。
Re:すでに過去の遺物 (スコア:2, おもしろおかしい)
「渋谷への地理的集約は難しいが,紀伊や那覇だったら大丈夫」と言っているのでは?
Re:すでに過去の遺物 (スコア:2)
そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに なるから、使う用途がなくてもブレードをフル搭載で買わないとあとで泣 きを見る。(=無駄な投資が多くなる)
SIerに「必要になったら、その分追加していけばよく、1枚あたりのコストは1Uサーバより低いです」などと言われて食いついた後の末路が、正にそれですね。
電源の問題、耐荷重の問題、冷却の設備の問題と、実はブレードを導入するメリットは限定的だなと感じてます。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
タコ
なだけでは?
100Vで動くブレードもあるんですよ?
> そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
それは、貴方がそんなメーカばかり選定しているからでしょう?
ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
> を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。
あのー、ブレードにすれば、
- 同じU数なら集積度向上
- 故障部品はシャーシへ集約
- もし壊れてもブレード差し替えるだけ
...といろいろメリットあるんですけど、一度、『ブレードを使ったことのある』SIerとかメーカさんの説明うけたほうがいいかもね。営業トークにだまされてはいけませんが(w
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
サブジェクトが「過去の遺物くん」に見えた……
それはおいといて,
> > そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
> それは、貴方がそんなメーカばかり選定しているからでしょう?
> ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
どこのメーカーが互換性を維持していて,(知っているのなら)維持していないメーカーはどこか教えて
いただけると参考になります。
ちなみに私は VMware は使ったことがあるけどブレードは使ったことがない人なんで 1U か 2Uサーバ +
VMware でいいじゃんという考えなんですが,VMware と比較してブレードサーバにメリットがあるという
話があれば教えていただきたいです。
#ブレードサーバに VMware を載せるといった話があったけど,自分が働いているときに実現しなかった
#ので余計興味があったり。
Re:すでに過去の遺物<んなことないっす。 (スコア:1, 参考になる)
元ACとは別人だけれど。
過去の筐体(ブレードの入れ物)に最新のブレードサーバを挿せること、をさして互換性というなら
IBMは互換性を維持していて、HPは維持していないはず。
VM使うならコア数が多いほうがいい (スコア:2, 参考になる)
VMwareのような仮想化技術を使うなら、ブレード挿してコア追加していくよりはコア数の多いサーバを数個置いたほうがサーバ密度もあげられるしパフォーマンス調整もやりやすいと思うんですよ。
必要な処理能力が分からず順次増やしていきたいというのであればブレードも選択肢としてはいいのかもしれませんね。しかし私の仕事の場合、お客さんの調達の仕方を見ていると処理能力を追加したいからブレードの追加でというのはほとんどありません。というのは私がかかわっているお客さんの場合、アプリケーションはマルチスレッド化が十分に進んでいて、同じメモリ空間を見るコアがもっとほしいという要望になることが多いからです。そんなわけでメモリ空間的に分かれていない多コアのほうが使いやすいんですよ。
そういうわけで、併用は可能だけどブレードサーバだと仮想化技術のうちパフォーマンスの柔軟な調整(やりくり)という点が生きてこないように思います。
最初からブレード単位で処理能力を切り売りするような用途には、ブレードサーバのほうがいいのかもしれませんね。
屍体メモ [windy.cx]
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
> > VMware と比較してブレードサーバにメリットがあるという話
> その比較は意味が無いんじゃない?仮想化とブレードサーバは併用可能なんだから。
nekomata_nyaosuke氏の書き方から「VMwareよりもブレードのほうがよい」というイメージを受けたので聞いてみました。
個人的には,ほんのちょっと話を聞いただけでのイメージなんですが,VMwareとブレードを併用すればメリットが大きい
と感じています。とはいえ,実際にその部分に業務的に関わらなかったので,それ以上のことは調べていないのですが……
#いかん,イメージ先行で調査が足りていない。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
ksyuu さんも書かれていますが、併用すればいいかと。最近のブレードは、めっさ早いCPUとメモリをたくさん積めるので、1個のOS動かすのもったいないですー。元々ブレードの仕様が均一なので、vMotionとかやりやすいですし。始めて目の前で動いたときは感動した(w
> #いかん,イメージ先行で調査が足りていない。
いえ、私もたいしたこと言えずすいません。
VMotionみたいなのでいいじゃん (スコア:1)
>もし壊れてもブレード差し替えるだけ
そんなの、仮想化ノード間で仮想マシン移動させればいいだけ。
16コアとか24コアのサーバで仮想化するほうが集約しやすいと思うけど。
屍体メモ [windy.cx]
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
故障部品はシャーシへ集約
ちょっと意味がわからない
「故障(する可能性の高い)部品はシャーシへ集約」って意味かなあ。ディスクとかファンとか。
そしてその壊れた部分のみを差し替えるということに関して,普及品の方がはるかに調達が容易.
メーカ保守に頼らず、自前で修理ならその選択肢もなくは無いね。
でも、24×7なサービスを提供する場合なんかだと、ちょっと厳しいかな。人件費まで含めて考えるとメーカに払う保守費の方が安いし早いし確実だから。
Re:すでに過去の遺物 < んなことないっす。 (スコア:1)
> 決めてるから, ある程度大規模なシステムだとブレードにしたら集積度が上がるってことはない.
うーん、電力と空調が潤沢なら、そんな話になんないんですけど。前提条件が違うのですねぇ。
ちなむと、調べた某DCは、まったく余裕なのですが、うちは、まだそこに入れるまでもないという規模なのです(^^;
>>> 故障部品はシャーシへ集約
> ちょっと意味がわからない
すいません、舌足らずで(^^; えっと、故障『しそうな共通』部品はシャーシへ集約ってことです。
>>>もし壊れてもブレード差し替えるだけ
> 普通のラックマウントサーバも壊れた部分を差し替えるだけ.
> そしてその壊れた部分のみを差し替えるということに関して,
> 普及品の方がはるかに調達が容易.
うーんと、差し替えたら、OSとか復旧はどうするんでしょう?SANブートかな?かな?あと、ブレードの部品を交換することなんてほとんどなくて、まるっこ交換するからメリットがあるんだけど...。
> ブレードのメリットと言われていたことは, 実はほとんどメリットに
> ならないことがわかってきて, 価格的デメリットのみ残っているので普及しない.
> そして普及しないから価格的デメリットはますます拡大している,
> ってのが現状かと.
ブレード買うと負け組ですか...orz
> 特定ベンダーを完全に信頼して, 何から何まで純正品を言い値で買ってサポート
> 全部まかせて, メーカー都合のディスコンがリプレース時期を決める,
> って所なら導入してあげると営業さんが喜んでくれると思いますよ.
うーん、よっぽどひどい営業さんしか訪ねてこなかったみたいですねぇ...。なんか過去にあったのでしょうか...。
べ、べつに、うちは営業さんを喜ばす為に買ったんじゃないんだからね!(w
なんか、色々な方のコメントを見てると、データセンターの話と、うちみたいに会社のサーバをまるっこブレードに集約しちゃいました(てへ、みたいなのと、いっしょになってって、よくメリット・デメリットが、わかんなくなってきました(汗;;;
まとめて、えらいひと!(w
Re:すでに過去の遺物 < んなことないっす。 (スコア:1, 参考になる)
コストを考えてみてください。電気も土地もただじゃありませんよ。
よほどの廉価サーバでなければ、電源やファンといった部品は冗長構成を組みます。
確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は
他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
そういうことではなく、同じ仕様で増設したくても不可能になってしまう、ということです。
ラックマウント型は個々が独立しているので別仕様のマシンが紛れても問題ありませんが、
ブレードは個々の部品がシャーシ依存で他製品と互換性がない場合が圧倒的です。
だから最初にごっそり導入しておかないと、追加したいときには対応品が入手できないなんてことも。
でも、経費削減の折、最初にごっそり揃えて遊ばせているわけにもいかないでしょう。
数年おきに丸ごと置き換えることができるところばかりじゃないのですよ。
Re:すでに過去の遺物 < んなことないっす。 (スコア:1)
確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
故障率が上がるとオペレータの負荷が上がるんだよね。つまり、人件費に影響してくる。
普通、人件費は部品代の費では無いから、故障率の低い方、つまりブレードを選ぶと言う場合があっても不思議はない。
#そうでない場合があっても不思議は無いけど。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
超がつくほど合理主義的なサーバー構築をし続けてきているGoogleが、どういうサーバーを使っているのか
あれはGoogleの規模と技術があってはじめて実現可能なんであって、一般の企業やそこいらのSIerの真似できることじゃないと思いますよ。
だからといって、その代わりの答がブレードか、っていうとそれはそれで疑問が残りますが。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
集約度が上がっても1ラックで許容されている熱容量+電源容量は変わらないので、最大台数は変わらない
通常のラックマウントサーバに比べて、電源が集約される分、同台数比で(ちょっとだけ)電源容量が下がる、って聞いたことがあるけど、本当かどうか検証したことはない。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
んー、別区画契約ですかー。
> 使う電源総容量と熱量の問題は100Vでも200Vでも対して変わりませんよ
や、すいません、ブレードの枚数が同じだと、確かにそうですね。
シャーシ内のブレードの枚数が少なくてもよくて、事務所の隅っこに置くっていう場合にしか、100Vのメリットないかも。データセンターだと、シャーシにぱんぱんにブレード挿しますものね。
> IBMだけですよね?
たぶんそうです。
> あと、IBMも、最近のHS22とかって初代BladeCenterには使えないんじゃなかったかと
Σ (゚Д゚;)エ?うちの動いてますけど(w やばいんかな?かな?...って調べてみました。どうやら、ブレードをぱんぱんに入れると電源容量が足りない風味...orz 気をつけなきゃ。
> 集約度が上がっても1ラックで許容されている熱容量+電源容量は変わらないので、最大台数は変わらない
確かに、"熱容量+電源容量は変わらない"ってところを変えないと、メリットでませんね。
> 普通メーカの24/365保守で直しますよね?
> 差し替えなんてやるんですか?
予備ブレード用意して、SANブート先を別のブレードに付け替えて、差し替えてますけど...。あ、もちろんその後、メーカ呼んでますよ(w
# みなさんのお話を聞いていると、うちがふつーじゃない!って気がしてきた...orz
Re:ブレードと仮想化は別物 (スコア:2, 興味深い)
金持ちユーザが多量のサーバをドカンと購入
サーバ一台占有するほどでもないサービスでもメンテナンス、配備性、信頼性などの関係で大量にサーバ
を買ってたのが .com時代で最近はもうちょっと環境にも財布にも優しい仮想化技術で大容量SAN
と数台の大きめサーバに VM を詰め込んでマシンの数を減らしましょうって方向になってきてるんでは?
「マシンが必要です」から「はい、どうぞ」まで十分でできるメリットもあるし、
サーバの再設定なしでより早い、でかいマシンにアップグレードできるっていうメリットもある。
同じ vmware でもデスクトップ向けとサーバ向けの vSphere/ESX は全然違って、
十台、二十台のゲストOS を同時に走らせることができます。
クラウドコンピューティングとかデータセンターの最近の動きを見てるとまさに競合品だと思うけど。
Re:ブレードと仮想化は別物 (スコア:1, おもしろおかしい)
>チマチマ購入する貧乏人は、1/2Uラックマウントを購入するのが吉。
本当に貧乏なところはタワーサーバしか買って貰えませんorz
ブレードサーバの利点を生かせるデータセンタがないと... (スコア:4, 参考になる)
それに導入済みブレードシャーシに搭載できるブレードサーバが、3年後、5年後に現役で販売されているかというと保障はないよね。
ブレードサーバの拡張性(NICとか)が限られていることと、管理運用のためのツールがブレードサーバ用に別ものになるので運用ノウハウの蓄積が必要になるといった面でもコストが掛かる。
こんな感じでブレード単体で見ると良くないところも目立つよね。
結論としてはやっぱり、データセンタの1ラック当たりの電源容量が2倍とか、3倍とかになってくれないとメリットを見いだしにくいですね。
データセンタは停電に備えて大規模な電源設備が必要なため、急にラック当たりの電源容量を増やすことができないはずです。なので、もともと電源容量の大きかったデータセンタ(なぜコストを掛けて無駄に電源設備を用意したのか?)か、つい最近できた/電源設備強化したデータセンタでないとそうした電源は用意できないのではないかなぁ。
3G じゃなきゃ意味ないよね (スコア:4, 参考になる)
第三世代になると FC スイッチと L2/3 スイッチがシャシーに搭載された結果、シャシーから出て行くケーブルは電源ケーブルと光ケーブルだけになったから、随分世話が楽になりましたよ。シャシーに搭載されているモニタシステムのおかげで、n+m な冗長管理も自動化されてますし(フィンガープリントでライセンス管理をしてる某 M 方面な OS ではブレードがかわると「海賊版」としてはねられてしまうので、少なからず騒ぎとなりましたが)。あと、HP の iLO みたいなモニタシステムがシャシーに搭載されているのも大きいですね。IP 越しに BIOS 画面をいじれるだけじゃなくて、手元 PC の光ドライブをリモートマウントさせてインストール作業できますから。
まぁ、弱点は高集約度故の問題ですね < 消費電力&床荷重 汎用機を置いていた様な小規模データセンター(銀行統合化の結果、結構都内各所に実在してるのよね)だと、かなり辛い(電力回路を増設してラックに下駄(スキー)を履かせないと設置できない)。
--- Toshiboumi bugbird Ohta
SunBlade (スコア:4, 興味深い)
SunBlade6000はSPARCチップのほかにINTEL,AMDのCPUが搭載可能ということでしたが、
・LAN,FC,電源などの配線はブレード毎にすべて外だし
・200V電源4系統必須
・SPARC系ブレードはシャーシからの電源ON/OFFが不可能(T6300だけ?)
・数年後ディスコンが決定済み(いつかは忘れてしまいましたが・・・)
とブレードサーバのメリットをあまり享受できないシロモノでした。
配線はぐちゃぐちゃになるわ、ALOMにバグがあって/var/adm/messages(Solaris)にNEM 0がはずれた(Ethernetボードが取り外された!)と誤検知を1日に数回出力されてしまって、ログを汚されるわで。。。
1Uのサーバを台数分並べたほうが絶対楽だと思いました。。。
ブレード使ってるよ (スコア:3, おもしろおかしい)
ブレードサーバー使ってるよ!
MacBook Airを開発環境にして、サーバーも動かしてる。
文字通り見た目はブレード。ケーキも切れる。 [engadget.com]
忍者が持てば首をはねることもできそう。
#いや忍者は素手の方が強いだろというツッコミはなしで
Re:ブレード使ってるよ (スコア:1, おもしろおかしい)
もちろんEthernet端子はオプションとなっております。
保守性は良いような (スコア:3, 参考になる)
追加構築の終わったブレードを運用環境へ持ってゆく。あとは挿すだけ。ケーブリングなんて要らない。
パーツが故障したようだ。メーカを呼んで保守サポートを受ける。壊れたブレードはいきなり抜いて良し。はずすケーブルのチェックなんて要らない。
ラックにあと2U挿せたっけ。無理だ埋まってる。でもブレードなら4枚分空いてる。よしラック増設とラック間配線は要らないな。ということがたまにある。
こんなのは良さそうな点。
騒音が大きい、重い、高いというのは、気になる環境でなければ問題ないので気にしない。
ウィークポイント (スコア:3, すばらしい洞察)
昔保守員やってたことがある立場からブレードを見ると、シャーシのリコール出たらどうすんのよと思います。
少しでもインテリジェントな機能がシャーシ側に付いていたり、スロットからの配線に問題があって...なんてことが発覚してバックボードの交換なんて事態になったら1シャーシに詰まってる総てのブレードを止めなきゃならなくなるという。
システムのクリティカルなところって、替えが利かないところになるんですよね。その意味でちょっとブレードはおすすめしかねるなぁと。
今までシャーシ側のリコール対応はしたことないけども、いざやることになったらきついなあと前から思ってました。
Re:ウィークポイント (スコア:2)
BladeCenterのバックプレーンは二重化してある。
これが全てを物語っています。
って誰かが言ってた(汗)
配線が楽 (スコア:2, 参考になる)
ほとんどブレードサーバですが… (スコア:2, おもしろおかしい)
ウチの社はレンタルでブレードサーバを大量に入れてますが、ラックまで投資が回らないので、
大部分はスチールラックにプラスチックバンドで固定してるだけです。
ブレードの意味ないじゃん・・・
そっち方面じゃない人にとっては (スコア:2)
僕みたいにそっち方面じゃない人にとっては都市伝説のような物です。
# サーバーといえばフルタワーとミニタワーの組合せ
ほとんどブレードです (スコア:1)
Re:ほとんどブレードです (スコア:4, 参考になる)
タレコミ人です。
せっかくなのでブレード導入の感覚を出してみました。
42Uラックを埋めるとどうなるのか...
えーっと電力がすごいことに。重量も普通のDCでも床が抜けるよね。
(HPは1枚のブレードに2台のマシンがはいっているようだけど、無理やりじゃ..)
kailasさんのところは、どういうところに入れて、メリットは何を感じているのでしょうか。
○IBM
シャーシ:IBM BladeCenter S....7Uのエンクロージャーでブレードが6個格納。1ラック最大36個のブレードが格納。
シャーシの最大構成で108kg/台なので648kg/ラック
ブレード:IBM BladeCenter HS22が80Wらしいので36倍で 2,880Wかな。単体の重量不明
○HP
シャーシ:HP BladeSystem c7000....10Uのエンクロージャーでブレードが16台格納。1ラック最大64個のブレードが格納。
最大重量217kgなので868kg/ラック
ブレード:HP ProLiant BL2x220c の消費電力はPDFによると16台で5,850W、4倍で23,400W
Re:ほとんどブレードです (スコア:2, 参考になる)
物理的な制約ですが、IBMのDS8100(931)とかは最大重量1189kgで消費電力は5.8kVAなので、そんなものかなと。
Bladeに特段の魅力を感じて入れているわけじゃないですが、Bladeのメリットというと...どなたかが書かれていましたが配線は大きいですね。物理的な配線だけでなく、Blade間通信は内部のバックプレーンで済むとか。
昨今はVMwareやXenServerも検討してますが、ハイパーバイザー自身の監視をどうするか?とかで思案中です。
Re:ほとんどブレードです (スコア:1, 興味深い)
ほんとに?
ブレードにした理由って何?
他の人も述べてる電力密度や空調の問題で単位面積あたりの設置可能数は普通のラックマウントと変わらない(下手すりゃ悪化),
かつてから指摘されていてベンダー間非互換性が未だ解決されていない,
トラブルやメンテ時における代替機調達の困難さ,
現状の不人気を鑑みるに, メーカーがかつて謳っていたブレード差し替え用アップグレードパスが今後も継続して提供されるとは思えない,
近年の多コアCPUによって普通のラックで1Uあたり8コアや12コア並列なんてのが当たり前のように格安で実現している,
これらのを上回るブレードのメリットってなんでしょうか?
Re:ほとんどブレードです (スコア:2, 興味深い)
メリットなさ過ぎ (スコア:1, 参考になる)
ブレードって設置面積で課金されるデータセンターや初めからフル搭載してWeb系のフロントサイドサーバにするしか
役に立たないなぁと思います。大抵の大きな会社は巨大な内線交換機をダウンサイジングや撤去した
マシンルームの床が余ってるのが現状で、それならラック5本くらい入れちゃえ、
ブレードは1Uより安くなったら考えるけどメリットないね、というところですね。強いて言えば電源の単一障害点を減らせる
くらいかな。でもVMが流行りだしてブレードがいつの間にかブックになって1Uとそんなに変わらんという。
シャーシを1台のサーバに見せて、刺すのはCPUやメモリのカードでNUMA構成可能でスケーラビリティがある、なら
メリットも出てきますが、現状スペース圧縮にしかなってない。これは弱いねと。
それより問題はストレージなんですが、なんかどうにかならんですかね。SANアレイ高杉
Re:メリットなさ過ぎ (スコア:2)
> それより問題はストレージなんですが、なんかどうにかならんですかね。SANアレイ高杉
高いですよね。ブレードのメリットのSANブートなどなど、実現しようとするとまわりが妙に高くなりまして。
仮想化もミドルがついていかない(仮想化の想定が無いライセンスとか動作保証外とか)事が多いし。
無いなぁ... (スコア:1)
周囲の決定権のある方々は、「あんなのはメーカーの販売戦略だ。よって不要!」的な意見が多く、
稼働しているものは当然、採用検討のテーブルに上がるのすら見たことすらありません。
展示会でしか見てない。
おまけに、ある若手マネージャなど、ラックマウントサーバーを指して顧客に
「ブレードが」
とか言い出す始末。
というわけで、「1Uのラックマウントブレード(と呼ばれている)サーバー」しか見たことないですねぇ(笑)
ブレードサーバーはすでに終わりつつあるソリューションでは? (スコア:1, すばらしい洞察)
ノートPCか、それに似た小型PCを数台置くだけで十分
台数が必要なところは (スコア:1, 参考になる)
ブレードなんか使わずに低電力の高密度サーバ使ってるような気がしますが。
http://www.rackable.com/products/microslice.aspx?nid=servers_5 [rackable.com]
ホントに止まったら困る環境では、物理サーバの交換なんか待ってられないから
Xenとかで素直に仮想化してるだろうし。
ブレードサーバって美味しいですか? (スコア:1)
サーバーとして運用してます。
OSはLinux。
お金はかからなかったけど・・・・。
(人件費は除きます)
ほら、課長。
操作方法(OSインストールから運用まで)を一から全て書いたドキュメントを作りましたよ(lsコマンドの使い方など)。
だから、あなたも覚えてくださいよ。
やだなぁ、簡単ですって。
家庭にブレードが入る未来は無いのでしょうか? (スコア:1, 興味深い)
半面、それだけの密度で設置した場合の、電流量や熱量の問題が致命的。
ということでいいんですよね。
じゃあ、オフィスの10台程度のPCをブレード化するソリューションとか
家庭に導入される、各種のコンピューター機器がブレード化(標準筐体化)
してしまう未来ってのは来ないものでしょうか?
乱雑に散らばる、HDDレコーダーとかゲーム機とかパソコンとか
あれ、どうにかなんないのかなぁ…
Re:家庭にブレードが入る未来は無いのでしょうか? (スコア:2, 参考になる)
乱雑に散らばる、HDDレコーダーとかゲーム機とかパソコンとか
うちでは、ルミナス [luminous-club.com]などのスチールラックを使って、
ほぼ立方体のワゴンを作り、そこにPC2台、ルーターやプリンタ、スキャナなどを搭載。
飛び出しがちなケーブルは、ラックの柱や網目にインシュロックなどで留めてます。
机の脇に置いてます。ケーブルがウニャウニャになった裏側は、まるでボーグキューブ [google.co.jp]。