仮想マシンは基礎となる物理マシンよりも遅いですか?


50

この質問は非常に一般的ですが、最も具体的には、Ubuntu Enterprise Cloudを実行している仮想マシンが仮想化なしの同じ物理マシンよりも遅いかどうかを知りたいと思っています。いくらですか(1%、5%、10%)?

WebサーバーまたはDBサーバー(仮想VS物理)のパフォーマンスの違いを誰かが測定しましたか?

構成に依存する場合、2つのクアッドコアプロセッサ、12 GBのメモリ、および64ビットのubuntuエンタープライズサーバーを実行するSSDディスクの束を想像してみましょう。その上、利用可能なすべてのリソースを使用できる仮想マシンは1つだけです。


1
Ubuntu Entreprise Cloudは、XenではなくKVMに基づいています。
アントワーヌ・ベンケモン

1
アントワーヌ、あなたは正しい-「コア仮想化戦略は常にKVMベースでしたが、lib-virtの開発により、KVMとXenホストの管理は統一されました。」-Xenに関する言及を編集します。
ミハルイリッヒ

回答:


31

ベアメタル\タイプ1ハイパーバイザーでの汎用サーバーワークロードの一般的な経験は、CPUオーバーヘッドの約1〜5%とメモリオーバーヘッドの5〜10%であり、追加のオーバーヘッドはIO負荷全体によって異なります。これは、基礎となるハードウェアが適切に設計されているVMware ESX \ ESXi、Microsoft Hyper-V、およびXenの下で実行されている最新のゲストOSの私の経験ではほぼ一貫しています。最新のCPUハードウェア仮想化拡張機能をサポートするハードウェアで実行される64ビットサーバーオペレーティングシステムの場合、すべてのタイプ1ハイパーバイザーがその1%のオーバーヘッド数に向かっていると予想されます。KVMの成熟度は現時点ではXen(またはVMware)に完全には達していませんが、説明した例の場合よりも著しく悪化すると考える理由はありません。

ただし、特定のユースケースでは、仮想環境の全体的な\集約 "パフォーマンス"はベアメタル\ディスクリートサーバーを超える場合があります。VMwareのクラスタ化実装がベアメタルOracle RACよりも速く、より良く、より安くなる方法についての議論の例を次に示します。VMwareのメモリ管理技術(特に透過的なページ共有)では、十分に類似したVMが十分にある場合、メモリのオーバーヘッドをほぼ完全に排除できます。これらすべてのケースで重要なことは、複数のVMをホストに統合している場合にのみ、仮想化が提供できるパフォーマンスと効率のメリットが実現されることです。 。

これはすべて有用ですが、サーバー仮想化に関する実際の問題は、管理、高可用性技術、およびスケーラビリティに集中する傾向があります。2〜5%のCPUパフォーマンスマージンは、20、40、または各ホストで必要な多数のVMに効率的に拡張できるほど重要ではありません。ベースラインとしてわずかに速いCPUを選択するか、クラスターにノードを追加することでパフォーマンスヒットに対処できますが、ホストが実行可能なVMの数をスケールアウトできない場合、または環境の管理が難しい場合、または信頼性が低い場合、サーバー仮想化の観点からは価値がありません。


7
古い技術を使用している-特に5%から10%のメモリオーバーヘッドは古いハードウェアです。ハイパーバイザーがサポートしている場合、新しいハードウェアチップは約2%から3%のオーバーヘッドがあります。AMDとIntelはそれまでにHyper-Visorメモリマッピング用のAPIを改善しました。後で述べたように、彼らはかなり透明であるとヒットしました(1%の目標)。真のメリットを指摘するために+1。
トムトム

1
5〜10%はVMwareで見たものに基づいており、EPT \ RVIキットに基づいています。最新のCPUでのハードウェアベースの仮想メモリ管理の改善により、RAMのオーバーヘッドが削減されるのは
理にかなってい

透過的なページ共有に関しては、すべての新しいCPUがサポートする大容量のメモリページがある場合、それはお粗末です。この場合、基本的には何も得られません。
トニーロス

1
@Tonyは、オーバーコミットされていない場合にのみ当てはまります。その場合、ESX \ ESXi 4は小さなページを使用することを選択し、TPSが作動します。アドバタイズされたとおりに機能しますが、絶対に必要な場合はオーバーコミットを許可し、そうでない場合はパフォーマンスを犠牲にしない賢明なアプローチです。kb.vmware.com/selfservice/microsites/…を
Helvick

1
@ Helvick、win7またはw2k8r2ゲストを実行する場合、ゲストは積極的に事前キャッシュするため、TPSはあまり機能しません。
トニーロス

23

「パフォーマンス」には多くの側面があります。n00bsはOSの起動時間を測定します。たとえば、Windows 2012は、実際のHDで12秒、SSDで1秒で起動するので、すごい素晴らしいです。
しかし、この種の測定はあまり有用ではありません。パフォーマンスはOSの起動時間と同じですが、OSは月に1回起動するため、最適化はあまり意味がありません。

私の日常の仕事なので、「パフォーマンス」を構成する次の4つの部分を指摘するかもしれません。

  1. CPU負荷
    これは同等である必要があります。つまり、ベアメタルで1000ミリ秒かかるタスクは、同じハードウェアのアイドルVM環境で1000ミリ秒の処理時間とおそらく1050ミリ秒のクロック時間で実行されます(詳細は後述)。GoogleのprocesstimeおよびqueryperformancecounterのMSDNは、VMがCPU時間をどれだけ消費するかを示すことができます。

  2. SQLパフォーマンス
    SQLのパフォーマンスは、SQLデータが保存されているデータストアへのIOに大きく依存しています。私は、バッファローのホームNASにある第1世代のISCSIと、すべてのレベルでDCEを使用したISCSIと実際の古い学校のFC環境との間で300%の違いを見ました。FCレイテンシは最も低いアーカイブ可能なため、TCP / IPデータセンターの機能強化のためのFCプロトコルの「コピー」につながるため、FCは今でも勝ち続けています。ここで、IOpsとレイテンシは重要ですが、サーバープロセスからメディアまでのIO帯域幅も、アプリがNo-SQLまたはDatawarehousingの傾向があるか、ERPシステムのようにその中にあるかによって異なります... Sage KHK for small enterprises、SAP巨大なもののために。

  3. ファイルシステムアクセス
    ビデオストリーミングなどの一部のアプリケーションは、保証された最小帯域幅に依存しますが、他のアプリケーションは16進エディターで大きなファイルを開く、ビデオプロジェクトをお気に入りのムービー作成プログラムに読み込むなど、最大IOスループットに依存します。vmの典型的な状況ではありません... IOpsは開発者にとっても重要です。開発環境は非常にデリケートであり、VMでそれを行う誘惑が強いため、開発者はしばしばVMを利用します。大規模なプロジェクトをコンパイルすると、多くの場合、多数の小さなファイルを読み取り、コンパイラーの処理を行い、EXEおよび付随するコンポーネントをビルドすることを意味します。

  4. クライアントへのネットワーク遅延
    ここでは、Word 2010、Openoffice Writer、LaTEX、GSViewなどのWYSIWIGプログラムの使いやすさは、マウスアクションがクライアントからサーバーに到達する速度に大きく依存しています。特にCADアプリでは、これは重要です....しかし、LANの問題でもありません。これが重要なのはWAN経由のリモートアクセスです。

しかし、私は長年のコンサルティングの観点から話していますが、管理者パスワードを持っているユーザーがいます(そして、彼らは多くの場合、BIG予算とBIGポケットブックを持つBIG企業の従業員です)。どのパフォーマンスコンポーネントが重要であり、どのコンポーネントが使用するアプリケーションの観点から重要であるか。
これはおそらくメモ帳ではありませんが、これを設計するための非常に洗練されたアプリケーションであり、非常に高価であり、VMware、HyperV、またはXenappに移動する必要があり、期待どおりに動作しません。

しかし、彼らは純粋なCPUパフォーマンスのために作られていないブレード上の1.5 GHz Xeonで実行されるかもしれないことを心に留めていません、彼らは平均のために構築されています、たとえば「CPUサイクルあたり$に最適化」または「ワットあたりのCPUサイクル」 。

そして、トレードオフと経済化について話すとき、それは主にオーバーコミットメントにつながります。オーバーコミットは、CPUを十分に処理できるリソースの不足につながりますが、メモリの不足はページングにつながり、コアルーターのIOの不足はすべての応答時間の増加につながり、あらゆる種類のストレージでのトランザクションの過負荷はすべての有用なアプリを停止する可能性があります応答が速すぎることから。ここでは監視が必要ですが、多くのソフトウェアベンダーはそのような情報を提供できません。一方、3台の物理サーバーのリソースを持つホストは、おそらく物理的なものと同じレイアウトの8台の仮想マシンを処理できます。

アイドル状態のシステムでのCPUのトレードオフにより、システムは物理システムよりも50%遅くなることがよくありますが、一方で、顧客のIT担当者がVMに移行したい「現実世界」OSと「現実世界」アプリをインストールできる人はいませんボックス。そして、VMテクノロジーが純粋なCPU速度を取引することで柔軟性を提供できることを明確にするのに数日(たぶん数週間ですが、確かに42回の会議)が必要です。これは、最近の大規模なVM環境をホストするこれらのブレードシステムのCPUに組み込まれています。また、メモリは同等ではなく、いくつかのトレードオフが適用されます。DDR3 1600 CL10は、DDR2 800 ECC LLRよりも高いメモリ帯域幅を持ちます。IntelCPUは、AMD cpusとは異なる方法でこれから利益を得ることを誰もが知っています。しかし、生産的な環境ではほとんど使用されません。自国のデータセンターが請求する可能性のある価格の10%の価格でデータセンターサービスを提供する第3世界の国でホストされているホワイトボックスまたはデータセンターでより多く。Citrxのおかげで、エンドユーザーとデータセンター間のレイテンシが150ミリ秒未満であれば、データセンターはどこにでも存在できます。

そして、ホームユーザーの視点....

最後になりましたが、Win7またはXPを捨ててLinuxに交換したい人もいます。実際、LinuxとWindowsで利用できるゲームはわずかしかないため、ゲームの質問が浮上します。ゲームは3Dアクセラレーションに大きく依存しています。VMWare 6.5ワークステーションと接続された無料のプレーヤーはDirectX 9を処理できます。つまり、VMのDoom3はホストグラフィックカードでフルスクリーンで実行できます。ゲームはほとんどが32ビットアプリであるため、3 GBを超えることはなく、ほとんどが3 CPUを超えることはありません(Crysisで表示)。新しいVMプレーヤーとWSは、より高いDirectXバージョンとおそらくOpenGLを処理できます。VMware6.5でUTとUT2004をゲームしました。ホストにはATI Radeon 2600モバイルとT5440 CPUがありました。1280x800で安定しており、ネットワークゲームでもプレイできました。


1
時代を超越した質問に対する良い答えが好きです。サーバー障害へようこそ!
マイケルハンプトン

9

はい。しかし、それは問題ではありません。違いは通常無視できます(1〜5%)。


3
私はあなたを信じています。それでも、誰かが実際に測定したベンチマークをリンクできますか?
ミカルイリッヒ

9
誰もあなたの質問に答えられないほど多くの要因に依存します。それは、あなたが持っているハイパーバイザー、サーバーの仕様、ストレージ、そして最も重要なことには、その時点でホストと他に何が起こっているかに依存します。
Chopper3

実際にはそうではありません。本来、多くのことを行うと、物理マシンが共有されます。しかし、ハードウェアの仮想化を考えると、ハイパーバイザーのオーバーヘッドは今ではほぼ一定です。複数のVMの読み込みを開始すると、結果として得られる使用可能な電力は共有されますが、それは-合計で-サーバーの容量よりもわずかに少ないだけです。
トムトム

11
引用が必要です。
ゾレダチェ

ハイパーバイザーのオーバーヘッドは、OSをどれだけ啓発できるかに依存しますが、これは準仮想化を意味するものではありません。
トニーロス

8

特定の状況では、仮想化が物理的なパフォーマンスを上回る可能性があることを指摘します。ネットワーク層はギガビット速度に制限されていないため(ハードウェアエミュレーションが特定のLANカードのものであっても)、同じサーバー上のVMは、平均的なネットワーク機器を備えた複数の物理サーバーの速度を超える速度で相互に通信できます。


2
同じサーバー上の2つのVMで実行される2つのソフトウェアは、1つのベアメタルサーバー上の同じOSの下で2つのソフトウェアよりも速く通信しません。
タイムボカン

1

同じテストを実行している同じソフトウェア(大量のWebトラフィックと大量のSQL Serverアクセス​​を備えた.NETベースのWebアプリケーション)のテスト比較を行っています。私が見たものは次のとおりです。

  • 物理マシンはクラスのインスタンス化が優れています(システムレベルでのメモリの割り当てに変換されます)-これは理にかなっています、アプリはコンストラクターでかなりの時間を費やしました(メモリが割り当てられている(そして何も行われていない)場合、物理マシンでは、コンストラクターは上位1000にも含まれていませんでした)
  • メソッドの途中にある場合、2つはほぼ同等です。これは、おそらく2つの「同じ」ことを示すほとんどのベンチマークの作成方法です。
  • ネットワークコントローラーにアクセスすると、物理がVMを少し打ち負かします。再び、物理は.NETプロセスとハードウェアの間にあまり座りません。VMは、各トランザクションが通過する必要がある他の「もの」を追加します。
  • 実際、ディスクアクセスにも同じことが当てはまります(SQL Serverは別のマシン上にありました)-違いはごくわずかですが、それらをすべて追加すると、顕著になります。これは、ネットワークアクセスが遅いか、ディスクアクセスが遅いことが原因である可能性があります。

誰かがベンチマークを作成して、それらが1%異なるか、同じであるか、VMがより高速であることを証明する方法を簡単に確認できます。VMがソフトウェアでシミュレートする必要があるローカルハードウェアサポートの利点をプロセスが活用するものを含めないでください。


これは私が探していたものです。+1
フィルリケッツ

1

特定の物理ハードウェアにインストールされたオペレーティングシステム、ソフトウェア、およびデータを、同じ元のハードウェア上のハイパーバイザー内に単独でインストールされた同じオペレーティングシステム、ソフトウェア、およびデータと比較しようとしています。この比較は、(少なくとも最初は)ほとんど誰も実行しないため、有効ではありません。もちろん、それはおそらく遅いでしょう。ありがたいことに、サーバーを仮想化する最も一般的な理由を完全に見逃しています。

ここでのより良い例は、データセンター内の2つ(またはそれ以上)の古いサーバーを調べることです。適度に良好なパフォーマンスを発揮しているサーバーを探しますが、現在は古く、更新サイクルが近づいています。これらのサーバーはすでに古いハードウェアで十分に機能しているため、ムーアの法則のおかげで、新しいものは何でも仕様を超えてしまいます。

それで、あなたは何をしますか?それは簡単です。2台の新しいサーバーを購入するのではなく、1台だけを購入してから、両方の古いサーバーを同じ物理的な新しいデバイスに移行します。新しいサーバーを購入する準備をするとき、両方の古いサーバーからの負荷だけでなく、ハイパーバイザーからの負荷も処理するのに十分な容量を持つように計画します成長を可能にすることができます)。

要約すると、仮想マシンはほとんどの状況で「十分な」パフォーマンスを提供し、サーバーをより有効に活用して「無駄な」コンピューティングパワーを回避するのに役立ちます。

さて、これをもう少し伸ばしましょう。これらは古いサーバーであるため、おそらく1500ドルのシンプルなピザボックスサーバーをいくつか探して、それらを交換していました。おそらく、これらのピザボックスの1つでも、両方の仮想の古いマシンからの負荷を簡単に処理できます。しかし、代わりに実際のハードウェアに7500ドル以上を費やすことにしたとしましょう。これで、初期コストがわずか5で、既存のサーバーを簡単に処理できる(ストレージとネットワークの処理方法によって異なります)デバイスができました。また、物理サーバーを1つだけ管理し、切り離すという利点もあります。ハードウェアからのソフトウェア(つまり、ハードウェアの更新で新しいWindowsライセンスが必要になったりダウンタイムが発生する可能性が低くなります)ことで、電力を大幅に節約でき、ハイパーバイザーはパフォーマンスに関するより良い情報を提供できます veは過去に持っていました。これらのうち2つを取得し、あなたの大きさに応じて、データセンター全体がわずか2台のマシンになるか、2番目のサーバーをホットスタンバイとして使用して高可用性のストーリーを伝えたい場合があります。

ここでの私のポイントは、パフォーマンスだけではないということです。 完全に優れた本番サーバーを使用して、それだけで同等のハードウェアに仮想化することは決してありません。それは、コスト削減と、高可用性などの統合によって得られるその他の利点についてです。これらの利点を実現するには、サーバーを別のハードウェアに移動する必要があるため、ハイパーバイザーのペナルティを考慮して、そのハードウェアのサイズを適切に調整する必要があります。はい、それらのマシンのそれぞれが独自の物理デバイス上にある場合よりも合計でわずかに多くのコンピューティングパワーが必要になる場合があります(ヒント:実際には、はるかに少ない合計コンピューティングパワーが必要になる可能性があります)が、はるかに安く、エネルギー効率が良くなり、メンテナンスが簡単 1つの物理サーバーを実行するよりも、多数実行するよりも。


2
統合とコスト削減が常に重要というわけではありません。ハイパーバイザーは多くの機能を備えた製品であり、その多くは、ほとんどの人が仮想化する理由とは無関係にビジネス価値を高める可能性があります。統合とコスト削減は、そのビジネス価値の一部である場合とそうでない場合があります。スナップショット、ライブマイグレーション、Storage vMotion、およびハードウェアの抽象化はすべて、ビジネスIT戦略の一部です。
jgoldschrafe

@jgoldポイントが取得されました。大きなものである高可用性も忘れてしまいました。私の弁護では、前回の編集でハードウェアのアブストラクション(ある種)について言及しましたが、元の質問の角度から仮想化を探求しているだけの人にとって、統合/コストは伝えるべき本当に大きなポイントだと思います。
ジョエルCoel

この質問は、仮想化がなぜ有用であるか、または有用でないのかではなく、仮想化について調査したい完全に有効な側面であるパフォーマンスの比較について尋ねました。
ニックベッドフォード

0

SSD(OCZ Vertex 2)にアップグレードしたばかりで、その上でXP VM開発環境を実行しています。ソフトウェア開発者です。私が気づいたことの1つは、プログラムを起動すると(ロードに時間がかかるほど大きい)、仮想CPUの1つのコアがペグアウトすることです。IEをロードするときにも発生します。CPUがペグアウトするため、ボトルネックはSSDではなくCPUにあると思います。しかし、奇妙なことに、同じことが物理マシンで行われた場合、ロードが速くなり、VMWareが実行している余分な処理オーバーヘッドがディスクアクセスでCPUを消費していると感じています。

たとえば、Delphiを使用し、通常のHDDを搭載した物理マシンでは、コールドブートから開始するのに20秒かかる場合があります。SSDから実行されているVMでは、コールドスタートから19秒でロードされます。それほど大きな違いはありませんが、SSDが物理マシン上にあると、ロードが速くなります。ただし、物理マシンのCPU使用率をチェックしなかったため、CPUもボトルネックになっている可能性があります。

しかし、VMの感触は、ディスクアクセスがVMに負担をかけるということです。


0

明らかに、仮想マシンは物理マシンよりも低速です。しかし、このシナリオにいるときは、ニーズを満たすのに最適なものを評価する必要があります。必要なシステムが1つだけで、高速である必要がある場合は、ハードウェアに直接インストールします。一方、柔軟性、スケーラビリティ(および他のすべての仮想化の利点:P)が必要な場合は、VMを展開します。遅くなりますが、私見では正当化され、パフォーマンスが大幅に低下することはありません。


0

この点に関して、MicrosoftはBizTalkサーバーとSQL Serverを異なる構成で使用して、ベンチマークテストをいくつか行ったようです。以下のリンクを参照してください:

http://msdn.microsoft.com/en-us/library/cc768537(v=BTS.10).aspx


3
回答の結論を引用してください。さもなければ、これは提供されたリンクのスパムにすぎません。ありがとうございました。
クリスS

SQL Server performacne仮想対物理比(BizTalk:Messaging / Documents processed / Secメトリックを使用して合理的に現実世界のように見える)は、HyperVを使用して88%と見積もられています。良く見えません。
デッドビーフ

ああ、それは250MBのPDFファイルですか?O_O
デビッドバラジック

-1

理想的には、Virtual PCのパフォーマンスは次のとおりです。

CPU:ホストの96-97%

ネットワーク:ホストの70〜90%

ディスク:ホストの40〜70%


3
そして、これらの数字は....から来る
ジム・B

-4

TomTomに反対してすみません。

私はしばらくの間、主にWindows XP、Windows Vista、現在はWindows SevenネイティブシステムでVMware Workstationを使用して、さまざまなWindowsフレーバーとUbuntuを実行しています。

はい、仮想化環境はネイティブシステムよりも遅く、5〜100%の範囲である可能性があります。

主な問題は、CPUの負荷ではなく、物理メモリの不足です。

4 GbシステムでWindows Seven 64 Ultimateを実行しており、アイドル時に1.5 Gb近くを必要とし、CPUの約10%を使用するとします。VMwareの追加レイヤーを起動すると、最大300 Kbのコストがかかり、CPU負荷は最大20%まで上昇します。次に、VMware内で仮想システムを起動すると、その仮想マシンに対して定義した最小メモリ量が要求されます。これは、適切なシステムで最低1 Gbです。次に、仮想マシンがUbuntuの場合はCPU負荷が約60%、最新のWindows OSの場合は約80%のCPU負荷が表示されます。

次に、その仮想マシン内でさまざまなアプリを起動します。

その仮想マシンに設定したメモリ量が十分でない場合、仮想化システムはスワップを開始し、全体のパフォーマンスと応答性が劇的に低下します。

その仮想マシンに設定したメモリ量とネイティブシステムに必要なメモリ量の合計がネイティブシステムのメモリ量を超える場合、スワップしようとしているネイティブシステムが遅くなりますネイティブシステムと仮想化システムの両方。

そのため、最初にネイティブマシンと仮想マシンの両方に必要なメモリのバランスに依存します。

現在では、CPU負荷とほぼ同じです。仮想化アプリに膨大なCPU負荷が必要で、ネイティブアプリにも膨大なCPU負荷が必要な場合、ネイティブシステムは優先度を管理し、異なるアプリ間でCPUチャージのバランスを取る必要があります。現象は、アプリの優先順位でだますことができる古典的なCPU負荷の問題です。

したがって、仮想化を使用する必要がある場合の最初のアドバイスは、ネイティブまたは仮想マシン内で使用するOSにかかわらず、マシンに大量のメモリを配置することです。

ちょうど2セントです。

宜しくお願いします。


この構成を想像してください:12 GBメモリ、2つのクアッドコアプロセッサ。その上に、11.5 GBのメモリとすべてのCPUパワーを備えた1台の仮想マシンがあります。いくつかの顕著な減速がまだありますか?
ミカルイリッヒ

3
Win7 x64は、アイドル状態のときにどのように1.5 GB(またはCPU時間)を必要としますか?私の経験では384-512MBに近い-残りはI / Oキャッシング用に予約されており、必要に応じて他の場所でリリースされます^^
Oskar Duveborn

4
ただし、ワークステーションの仮想化については、Windowsでの仮想化に比べてオーバーヘッドがわずかなベアメタルハイパーバイザーではありません。Ubuntuクラウドはベアメタルハイパーバイザーではないかもしれませんが、Windowsのリソースをほとんど使用しません。たとえば、GUIを持たないUbuntuサーバーで実行されます。
ジョンロードス

3
-1:非常に悪い比較。VM Workstationはハイパーバイザーではありません。次に、ホストで高負荷を実行することについて話しています。もちろん、それはゲストVMに影響を与えます。
-gravyface

1
@ Oskar> Win7 x64は、アイドル状態のときにどのように1.5 GB(またはCPU時間)を必要としますか?もっと私の経験では384〜512メガバイトのように、この絵を見てみましょうtheliberated7dwarfs.as2.com/pictures/png/W7-Mem.png のWindows 7から64、RAM、新鮮なリブートの4 GBの、何のアプリケーションがruningていないが、MSFTエッセンシャルセキュリティとカペルスキー!エラー:1.53 GbのRAMが使用され、平均7%のCPU負荷!@ TomTom&gravyface 1-最初の質問は、ハイパーバイザーではなく汎用VMマシンに関するものでした!2-私のくだらない技術プラットフォームは、MSFTとVMwareの両方の成功をもたらします。好むと好まざるとにかかわらず、私はあなたを責めません;)敬具
-Dopey

-4

私の経験では、仮想マシンはすぐに使用できる物理マシンよりもずっと遅いです。

ディスクにヒットしてCPUに多大な負荷をかけるアプリケーションを実行している場合にのみ気付くでしょう。多くのデータベースとWebサーバーを仮想マシンで実行しましたが、エンドユーザーおよび他のエンドユーザーからのフィードバック(つまり、リモートWebブラウザーからアプリにアクセスする)として、仮想マシンを使用するとかなり大きな遅れがあります。

もちろん、適切に構成された仮想マシンは80%(実際の数はわかりません)または物理マシンの速度に達する可能性がありますが、アプリケーションの動作と仮想マシンのしくみを深く掘り下げる必要があります動作します。ですから、新しいサーバーを購入してホストするだけでなく、VMを構成する時間にどれだけ価値があるかというコストの方程式だと思います。

私にとって、仮想マシンはパフォーマンスについてではありませんが、管理が容易であり、もちろんいくつかの低パフォーマンスVMをホストすることについてです。


2
あなたは本当にくだらない仮想化技術を実行しているようです。真剣に;)MSは、Hyper-VおよびSQL Serverとパフォーマンスを比較しました。そして、ベアメタルマシンのオーバーヘッドが約3%の数字を思いつきました。当然、これは1つの仮想マシンのみを実行すること、またはパフォーマンスが分割されることを受け入れることを意味しますが、仮想化のオーバーヘッドは本当に低いです。また、いくつかの低パフォーマンスVMをホストすることだけが目的ではありません。また、メンテナンスの容易さも重要です。VMを新しいハードウォーに簡単に移動すると、物理マシンはより複雑になる場合があります。
トムトム

@TomTom。私はあなたを信じたいと思いますが、もちろんマイクロソフトはハイパーバイザーが超高速であることを皆に伝えることに興味があります。Microsoftの仮想化とVmWareを試した企業から、Microsoftが言っていることは単なる「マーケティング」であることを知っています。実際に自分でベンチマークを実行しましたか?3%のオーバーヘッドが発生する場合は、試してみたいのでセットアップをお知らせください
ズバイル

2
ズバイル、クラップアウト。私はバカではありません-以前にテストを実行していました。私は多くのものをVMに移行しており、最近はほとんど物理的なものを実行していません。私は自分でベンチマークのltoを行いました。当然のことながら、ハイパーバイザーには注意が必要です。人々は多くのサーバーをマシンに置き、それをオーバーロードします。ほとんどの場合、実際にはIO領域にあります(ディスクのパフォーマンス)。しかし、それはすべてハイパーバイザーに固有のものではありません。RAMでも同じです。はい、たくさん必要です。そして、はい、シミュレートされたマシンは、効率的にRAMの量を必要とします。しかし、それはハイパーバイザーの問題ではありません。
トムトム

2
@TomTom。これらの仮想パフォーマンステストと物理パフォーマンステストの詳細を知るために読むことができるリンクはありますか
ズバイル

1
@Zubair-私は100%VMWareの人間ですが、これについてはTomTomに同意する必要がありますが、最新の適切に構成されたハードウェアでのCPUおよびメモリ操作のパフォーマンス低下はほとんどありません。 IOはCPUとメモリよりも顕著に大きな影響を受ける可能性がありますが、私たちはまだ1桁のパーセンタイル損失を全面的に話し合っています。私は8,000を超える会社で1,000近くのESXiホストを管理しており、非常に大量のIOにバインドされたアプリケーションはESXiに適合しないと確信しています。
チョッパー
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.