回答:
部品が故障する前に、ということですか?または、ハードドライブや電源などの障害のある部品の交換を含め、サーバーでメンテナンスを実行した場合に、サーバーがどれだけ長く続くと予想されるのでしょうか?
あなたが後者を意味すると仮定すると-ハードドライブのようなすべてのコンポーネントは「それらを手に入れてから2日」から10年以上までいつでも故障する可能性があるため、サーバーの寿命は2つの方法で測定できると思います
ただし、与えられたタスクを実行できる期間は長いと見なすことができます。これは、DNSサーバーなど、タスクが実際に変化しないものである場合には時間がかかる可能性があります。これは、ITに多くの資金を提供していない企業では十分に一般的です。私は常に「大企業、大規模な」環境で働いてきましたが、これは少なくともある程度、中小企業では完全に有効な視点です。
または、ハードウェアがサポート可能である限り、寿命を考慮することができます(そして、私の意見では、そうすべきです)。言い換えれば、サーバーの交換部品を入手できなくなると、本質的には時間の無駄が生じます。つまり、古いサーバーをすぐに交換するために新しいサーバーを使い果たして購入する必要があるという意味ではありませんが、保守のための部品を入手できなくなりますが、この時点で交換サーバーのコストとコストのバランスを取る必要があります新しいサーバーを購入し、古いサーバーのアプリとデータを新しいサーバーに移行できるようになるまで、そうしないと提供されるサービスが利用できなくなるリスク。
上記の両方またはいずれかのポイントに加えて、古いサーバーのメンテナンスが非効率になるポイントを考慮することもできます-稼働を維持するコストは、仮想化のコストよりも大きくなります(メンテナンス、電力、フロアスペース)。それと新しいハードウェア上の他の同様の古いサーバーの束。
編集:サーバーのタスクにも依存すると思います。たとえば、DNSサーバーと、主要なCRMバックエンドを実行するデータベースサーバーとの間には大きな違いがあり、ビジネスは麻痺します。ビジネスが予期せず死ぬ場合のリスクと、新しいハードウェアに移行することで得られる効率の両方の面で。
もちろん、CRMバックエンドを新しいハードウェアに移行し、古いハードウェアを再利用できます。重要でないテスト環境や開発環境などでこれを数回行いました。
これまでのところ、ほとんどの人はサーバーの技術的寿命の観点からこれに答えています。これは、ほとんどの中小企業や個人所有者が行うことです。私はキャッシュフローの問題がない会社で働いており、私たちのアプローチはまったく異なります。
当社のサーバー(およびITインフラストラクチャの他のほとんどの部分)はすべて資産です。つまり、それらは資産化されているため、数年で償却されます。ほとんどのアイテムでは、これは4年間で発生します。その後、これらのアイテムの資産価値は0になります。つまり、これらはもはや資産ではなくなります。そして、それらが資産でない場合、それらは負債になります。
したがって、新しいものと交換し、古いものを慈善団体やその他の価値のあるプロジェクトに寄付します(たとえば、興味のある人はDebianプロジェクトに寄付します)。財務的な観点から、資産を購入すると、単にお金が別の種類の資産と交換されます。ITの観点からは、すべてのキットが保証対象であり、スペアが利用可能であり、ダウンタイムが最小限に抑えられているという事実に頼ることができます。
現在、私たちの最も古いサーバーは6年前のものであり、その代わりは既に構成ベンチにあります。
最も壊れやすい部分はハードドライブであり、いつ故障するかを予測することはまったく予測できません。
他の部分は、良好な環境(温度、電力、...)で何年も機能するはず
です
保証/サービスカバーがより高価になるまで...企業向け
多くのショップでは、サーバーの年齢やCPUなどに基づいて、サードパーティまたはベンダーのサービス契約を結んでいます。必要かどうかに関係なく、置き換えられます。
オフィスには10年以上前のサーバーがあり、それでも正常に動作しています。オリジナルのHDDさえ持っているものもあります。
その後、いくつかのhddを失った新しいサーバーがいくつかあります。
温度と電力は、サーバーの寿命にとって非常に重要です。
もちろん、パフォーマンス/コスト要因を見て、それを交換/仮想化する価値があるかどうかを判断する必要があります(ほとんどの場合)
古いサーバーをすべて、いくつかの新しいサーバーとESXiに置き換えています。そして、省電力だけで新しいサーバーにお金を払っています。
私はまだ9.1GBドライブのペアでPIIサーバーを実行していますが、この時点では、ほとんど遺物であるという理由だけでそれを廃止したくありません!年中無休で3回移動しました。
物理的には、サーバーが10年以上使用されるのを見てきました。ここではハードドライブはカウントしません。それらは単なる消耗品であり、時々壊れます。また、すぐに爆破するシステムもあります...そして、古いマシンでマザーボードやそのようなものを失うと、すべてを捨てます。
パフォーマンスに関する限り、それは本当にあなたがしていることとシステムのタイプに依存します。十分なRAMと適切なワークロードが与えられていれば、1GHz未満のCPUでも今日でも良い仕事をすることができます:データセンターでは、まだ100mbit以下でインターネットに接続された多くのサーバーがあり、それ以上は押し出せません:多くの場合、数年前のパフォーマンスレベルは十分以上です(または、おそらくシステム管理者の仕事があまりうまくいっていません)。
ビジネス上の意思決定について話す場合、サーバーの寿命はベンダーサポートの最終日まで続くと考えています。ハードウェアベンダーとの契約が期限切れになると、そのシステムはミッションクリティカルな作業を行わなくなり、重大な問題なしに毎日電源をオフにしたり、交換したりできる重要ではないものに移行します。
サーバーの寿命には3つのアプローチがあります。
1つは、Mil SpecによるMTBF寿命です。これは、コンポーネントの予想寿命、スペアインベントリ、動作および保管条件、ほこり、入力電力品質などから導き出される統計的なものです。可動部品が最初に故障する-ハードドライブ、テープドライブ、ファン。これらはすべて簡単に交換でき、商用のスペアは豊富にあります。コネクタの問題もこのカテゴリに該当します-トラブルシューティングの「手を置く」アプローチは、接触抵抗を研磨により低下させることにより、魔法のようにギアを修正できます。
2つ目はソフトウェアです。サーバーは新しいOSまたはアプリケーションにアップグレードできますか?
3番目は、サーバーの容量/速度/効率です。部屋が不足していますか?現在のニーズまたは予想されるニーズに対して遅すぎますか?消費電力または熱負荷の観点から費用対効果は高いですか?それをはるかに少ない電力を消費するが、既存のサーバーよりも優れた、長寿命の新しいテクノロジーに置き換えることは可能ですか?(これは多くの場合、アップグレードする私の主な動機です)。
6ドライブRAID5アレイとDLTテープドライブを備えた6年前のサーバーでは、すべてのハードドライブを交換し、テープドライブを再構築する準備ができている場合があります。コストは驚くほど低い場合があります。合計容量200ギガの6〜80ギガのSATAドライブは、2〜750ギガの高性能2.5インチドライブのミラーまたはRAID5の3〜750ギガドライブのいずれかに置き換えることができます。速度と容量の改善、低消費電力ダウンタイムに余裕があれば、テープドライブは新しいドライブの半分以下のコストで再構築できます(私は常に棚に予備があり、 3年ごとに定期的にドライブを再構築してください)。
これらはすべて、オフサイトストレージ、ミラー化された施設、その他のリスク管理戦略によってのみ対処できる、火災、洪水、落雷などの壊滅的なイベントの可能性を無視します。
誰の視点と、ボックスにかかる圧力に依存します。
経済的寿命は通常3年です。信頼性の寿命は、購入する商品の品質に依存します。
y2kが近づいていたとき、私は70年代から稼働していたボックスを廃止するクライアントがいました。アップグレードする唯一の理由は、それらが準拠していないことです。
私はまだたくさんの古いnt4ボックスがそこに残っていることを保証できます。ボックスが維持され、故障時にディスクと電源が交換された場合、通常、価格が正しければ永遠に続く可能性があるため、維持するには費用がかかりすぎたときに寿命が長くなります。これは、仮想マシンで発生する可能性があります。
イアン