タグ付けされた質問 「virtualization」

仮想化は、システムのレイヤー間の抽象化を可能にするソフトウェアテクノロジーのグループです。これにより、システムの論理レイヤー間の分離が可能になり、分離、柔軟性、および/または一度に複数を実行する機能が提供されます。これは、さまざまな層が本質的に結び付けられているほとんどの従来のシステムとは異なります。

4
VirtualboxでのネイティブWindowsインストールの起動:可能ですか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 4年前に閉鎖されました。 Bootcampに似たものを探しています。 現在、Ubuntu Mavericをプライマリオペレーティングシステムとして実行し、VirtualboxでWindows 7を実行しています。ただし、一部のタスクでは、仮想化されたWindowsを実行するとオーバーヘッドが大きくなり、速度が低下するように見えるため、ネイティブで起動できるようにしたいと考えています。 理想的な状況は中、セットアップのWindowsとUbuntuになり、デュアルブートだけでなくとしてのUbuntu上のVirtualboxの中にWindowsパーティションをブートする機能で、別々のパーティションに。 これは可能ですか? また、Bootcampがこれに対応できる唯一のシステムであるとはどういうことですか?

5
それで、本当に、仮想化のオーバーヘッドは何であり、いつ心配する必要がありますか?
マシンを仮想化しない場合を理解するための良い経験則を探しています。 たとえば、ほぼ100%の使用率を持つ完全にCPUにバインドされたプロセスは、おそらく仮想化するのは得策ではありませんが、ほとんどの場合「かなりの量」(たとえば40または50%)? 別の例:1000台のマシンを仮想化する場合、たとえそれらが軽度または中程度にしか使用されていなくても、4コアのみのホストですべてを実行するのはおそらく悪いでしょう。 ホストリソースと比較した場合、マシンのワークロードまたはゲストマシンの数に基づいて仮想化に関するヒントを要約できますか? 私は通常、VirtualBoxまたはVMWareを使用してWindowsホストで仮想化しますが、これは非常に一般的な質問であると想定しています。

4
KVMはホストのシャットダウン時にゲストを自動的に一時停止またはシャットダウンできますか?
CentOS 5.5 KVMホストがあり、CentOSのさまざまなバージョンと、場合によっては他のOSでゲストを実行しています。 ホストのシャットダウン時に、(a)すべてのゲストにACPIシャットダウンを自動的に送信するか、(b)すべてのゲストをディスクにサスペンドできるようにしたいと考えています。 これらのいずれかを達成するための標準的な方法はありますか、それともロール・ユア・オウン・シチュエーションですか?ありがとう!

5
仮想マシンのスナップショットはどのように機能しますか?
ドライブイメージングソフトウェアを10年以上使用してきましたが、ドライブイメージングには数時間かかることがありますが、数秒で仮想マシンのスナップショットを作成して復元できることに驚かされます。 VMのスナップショットを作成し、別のOSに再インストールしてから復元を行うと、数秒で魔法のように古いVMが以前の状態に完全にバックアップされます。 これはどのように起こりますか?VMホストは、これを可能にするVMに対して実際に何をしますか?

1
/ dev / vdaと/ dev / sdaの違いは何ですか
認定の準備をしており、CentOS7(VirtualBox)とクラウドベースのサービスに別のインスタンスがローカルにインストールされています。 ローカルシステムにはが/dev/sdaあり、クラウドベースにはがあり/dev/vdaます。 今、私はこの違いが正確に何を意味するのだろうか?このデバイスの命名に関する標準(ドキュメント?)はありますか? 編集: このドキュメントは命名を理解するのに非常に役立つと思います:https : //www.kernel.org/doc/Documentation/admin-guide/devices.txt 8 block SCSI disk devices (0-15) 0 = /dev/sda First SCSI disk whole disk 16 = /dev/sdb Second SCSI disk whole disk 32 = /dev/sdc Third SCSI disk whole disk ... 240 = /dev/sdp Sixteenth SCSI disk whole disk しかし、/ dev / vdaに関する情報を見つけることができませんでした。

2
VMwareで採用されているギャングスケジューリングは重大な欠点ですか?
VMwareとhyper vがCPUスケジューリングを行う方法の違いに関するいくつかのテクネット記事とこの記事を読んでいました。 これについて客観的な情報を得ることができるかどうか疑問に思っていました。VMwareが使用するギャングスケジューリングは大きなデメリットであるように思えますが、私はただクールエイドを飲みたくありません。パフォーマンスに深刻な影響を与えるのでしょうか、それともVMwareのハイパーバイザーの最新バージョンがこれを解決しますか? 編集:私が不利を言うとき、私はHyper Vの「無料プロセッサスケジューリング」またはKVMがそれを行うに比べて意味します。私が読んでいた資料は、ギャングスケジューリングで回避される「無料プロセッサスケジューリング」に問題があるとは言いませんでした。

3
ハイパースレッディングと仮想マシン?
私はすでにこのスレッドを見ました:Hyper-VおよびHyper-threading:オンまたはオフ?、しかし、唯一の答えはWindows固有です... 私はVMサーバーを構築しており(Proxmox VEを使用して違いがあれば)、ハイパースレッディングが仮想マシンにどのように影響するか疑問に思っていました... 具体的には、仮想マシンの数を最大にした場合、ハイパースレッディングが役立つか、パフォーマンスが低下しますか? また、最大の仮想マシンは、〜30クライアント(4コア/ 8 GBのRAM)を備えたターミナルサーバーと、それが役立つ場合はファイルサーバーになります。 更新:サーバーは、1TB RAID 10、32 GBのRAM、デュアルIntel Xeon E5530を搭載したDell R410です(正確なモデルについてはわかりませんが、2 + GhzのE55xxでした) 更新:ほとんどのVMはKVM上にあります。

5
数百のVM Webサーバー用のSANテクノロジーの選択
問題 既存のプラットフォームでのパフォーマンスに問題があるため、これに関するセカンドオピニオンを求めています。これまでのパフォーマンスの問題は、スループットではなくIOPSに関連しています。 シナリオ 各ホストに64 GBのRAMを備えた16個のホストのブレードセンター。(M610を搭載したDell M1000eですが、おそらく関係ありません)500 VM、すべてのWebサーバー(または関連するWebテクノロジー(MySQL、ロードバランサーなど)、約90%はLinux、残りはWindowsです。ハイパーバイザーはVMWare vSphereです。ホストHAを提供する必要があるため、ローカルストレージは使用できません。そのため、ホストには起動するSDカードがあります。 ちょっとした背景思考 現在、最大6台のホストであり(ブレードセンターは、現在の成長で1年後にフルキャパシティになります)、拡張のためにMD1220を備えたDell MD3220iに対してiSCSIを実行しています。 私たちが検討した可能性のあるオプション、およびそれらに伴う即時の考え: VMをNFSデータストアに分散し、最大数のVMのパフォーマンス要件を満たすNFSストレージを実行します。NFSは拡張が安価で、ブロックレベルのストレージよりも少し抽象化されているため、必要に応じて移動できます。 さらにMD3220iコントローラー/ターゲットを追加します。ただし、これを行うと、VMWareが多数のターゲットを処理する方法に何らかの形で悪影響を与える可能性があることを懸念しています。 Nearline SASからSSDにすべてのディスクを交換します。これはIOPSの問題を完全に解決するはずですが、ストレージ容量を大幅に削減するという明らかな副作用があります。また、それはまだ非常に高価です。 vSphere 5にはストレージアプライアンスがあります。あまり調査していませんが、うまく機能する必要がありますか? 質問 そのすべての下でどのようなストレージを実行しますか?別のブレードセンターに拡張する必要はなく、それらすべてのVMに比較的良好なパフォーマンスを提供する必要があります。 「最善だからSAN xを購入する」という答えは探していません。さまざまなSANテクノロジー(iSCSI、FC、FCoE、InfiniBand、NFSなど)、さまざまなタイプのストレージ(SATA、SAS、SSD)、および数百台のVMのストレージを処理する方法(統合、分離)についての考えを探しています、シャーディングなど)。 絶対に、これについての考え、リンク、ガイド、ポインタなどは大歓迎です。また、私たちがすでに検討した上記のオプションについての考えを聞きたいです。 どんな入力でも事前に感謝します! 12年3月5日更新 これまでに素晴らしい回答がありました。皆さん、本当にありがとうございました! これまでのところ、この質問に対する回答を見てみると、次のルートが道であると考え始めています。 使用可能なストレージをVMWareクラスターに階層化し、ワークロードに適したストレージにVMディスクを配置します。 適切なストレージへのデータの配置を自動的に管理できるSANを使用する可能性があります。 Infinibandは、フルキャパシティのホストで必要な帯域幅を取得するために最も費用対効果が高いと思われます。 間違いなく、主要なSANベンダーのプリセールスサービスを利用して、シナリオを理解する価値があると思われます。 私はしばらくこの問題を検討し続けます。それまでの間、これ以上のアドバイスはありがたいことに受け取った!

7
vmの効率的なオフサイトリモートバックアップソリューションの推奨事項
現在の6つのvmをバックアップするための推奨事項を探しています(すぐに最大20に拡大します)。現在、2ノードのproxmoxクラスターを実行しています(これは、管理するカスタムWebフロントエンドで仮想化にkvmを使用するdebianベースです)。AMD phenom II x4とasusマザーボードを備えた2つのほぼ同一のボックスがあります。それぞれに4つの500 GB sata2 hdd、1つはOSおよびproxmoxインストール用の他のデータ、3つはmdadm + drbd + lvmを使用して2台のマシン間で1.5 TBのストレージを共有します。すべての仮想マシンのlvmイメージをkvmにマウントします。現在、1台のマシンから別のマシンへ、通常数秒以内にライブ転送を行うことができます(m $ SQLサーバーでwin2008を実行している最大のvmでは約2分かかります)。proxmoxの組み込みvzdumpユーティリティを使用して、vmのスナップショットを取得しています sネットワーク上の外部ハードドライブに保存します。次に、リモートオフサイトバックアップ用にvzdumpフォルダーを同期するjunglediskサービス(ラックスペースを使用)があります。 これはすべてうまくいきますが、あまりスケーラブルではありません。1つは、バックアップ自体が毎晩最大数時間かかる場合があることです。junglediskのブロックレベルの増分転送では、同期はデータのほんの一部をオフサイトに転送しますが、それでも少なくとも30分かかります。 もちろん、はるかに優れたソリューションは、2つの時点の差(午前6時から午前7時までに書かれたもの)を即座に取得し、それを圧縮し、その差分ファイルをバックアップサーバーに送信して、すぐにラックスペース上のリモートストレージ。私はzfsを少し調べましたが、それは送受信を行う能力です。bzipまたは何かのデータのパイプと相まって、完璧に思えます。ただし、nexfsaサーバーをzfsで実装するには、iSCSIブロックボリュームを(zvolを介して)proxmoxサーバーに提供するために、少なくとも1つまたは2つの専用ストレージサーバーが必要です。できる限りセットアップを可能な限り最小限に抑えることをお勧めします(つまり、別個のストレージサーバーを持たない)。 また、zumastorについても簡単に読みました。私が望むこともできるように見えますが、2008年に開発を停止したようです。 それで、zfs、zumastor、その他?

3
複数のVMを備えたHyper-VサーバーでCPU使用率とパフォーマンスを監視する方法
8ビットのRAMとIntel Xeon X3440 @ 2.53 Ghzを搭載したWindows 2008 64ビットHyper-Vを実行しているサーバーがあり、ホストシステムのパフォーマンスモニターに8つの論理コアを提供します。 3つの仮想マシンをセットアップしましたが、すべてWindows 2008 32ビットを実行しています。 Team Cityを実行するビルドサーバー ステージングサーバー SQL Server、SQL Server 2005を実行している VMが100%のCPUで動作しているように見え、非常に緩慢で応答しないにもかかわらず、ホストモニターが常に応答し続けるという点で、セットアップに問題があります。(私はそれについて別の質問をしました。) ここでの質問は、物理CPUが実際にどのように使用されているかを監視する最良の方法は何ですか?私が質問している理由は、VMのCPU使用率を監視するためにタスクマネージャーを確実に使用できないと言われているからです。

4
仮想マシンでNTPサーバーを実行する際の制限は何ですか?
ローカルネットワークに複数のStratum 2タイムサーバーをセットアップしたい。バーチャルマシンは、3台の1Uサーバーを購入するよりも安価に実行できます。そうすることでどのような制限が課せられますか?つまり、精度はどの程度悪影響を受けますか? さらに、私の本能は、ハードウェアの異常を緩和するために、これらのローカルタイムサーバーを異なる物理マシンに常駐させることです。この直感は正しいですか? 編集 私は、「仮想マシン」で、私はなかったと言うべきで、特に意味のVMwareを。むしろ、仮想化されたインスタンスの一般的な概念を意味しました。

8
優れた無料の「仮想マシン」アプリとは何ですか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 6年前に閉鎖されました。 ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 私はしばらくの間、仮想マシン市場を離れていました。2005年に、Microsoft Virtual PC 2004(無料ではない)とVMWareの現在のバージョン(無料ではない)を使用しました。良い無料のソリューションは何ですか? 私はホストOSで新しいソフトウェアを試して、それをホストすることにうんざりです!

2
KVMはタイプ1またはタイプ2ハイパーバイザーですか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 4日前に閉鎖されました。 KVMはタイプ1またはタイプ2ハイパーバイザーですか? タイプ1ハイパーバイザーはベアメタルで実行され、タイプ2ハイパーバイザーはオペレーティングシステム(VMware Workstationなど)上で実行されるアプリケーションであることを理解しています。また、タイプ1クライアントとタイプ2クライアントのパフォーマンスの違いが大きくなることも理解しています。 デスクトップ環境をdom0にインストールできることを理解しているため、KVMがタイプ1または2であるかのように混乱しています。

3
仮想マシンとI / Oの重いワークロードは正気ですか?
多数の仮想化サービス(Azure)および製品(vmware、kvm、hyperv)I / OおよびI / Oワークロードが重いシステムストールを確認しました。 私の質問は: I / Oの重いワークロードを実行するときに仮想化ソリューションを使用するのは正気ですか? この種のものに関するベストプラクティスは何ですか? これらの問題の原因は何ですか、よく知られているシステムのボトルネックがありますか、それとも過度の競合の問題ですか?

7
仮想ディスクの成長後にLinux PVパーティションをオンラインで拡張する方法
VMwareでは、VMの実行中に仮想ディスクのサイズをオンラインで拡張できます。Linuxシステムで次に予想される手順は次のとおりです。 パーティションを拡張します:削除してより大きなパーティションを作成します fdisk PVサイズを拡張する pvresize lvresize操作に空きエクステントを使用する そして、resize2fsファイルシステム用 しかし、私は最初のステップにこだわっています:fdiskそして、sfdiskまだディスクの古いサイズを表示しています。 私のディスクは、仮想LSI Logicコントローラーのおかげで接続されたSCSI仮想ディスクです。 Linuxカーネルで利用可能な仮想ディスクサイズとパーティションテーブル情報を再起動せずに更新するにはどうすればよいですか? 私が知る限り、そのすべてのステップは、再起動せずに、VMWareツールのおかげでユーザーのアクションなしでも、実行中のWindowsで可能です。Linuxでは、すべてのステップをオンラインで行うことを期待していますが、ステップ2、3、および4がオンラインで機能することは既に知っています。しかし、最初のもの-パーティションテーブルで宣言されたパーティションサイズの変更(まだ)には再起動が必要なようです。 更新:私のシステムはカーネル2.6.26を備えたDebian Lennyであり、拡張したディスクは「/」の「ルート」LVを含む大容量PVを備えたメインディスクです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.