タグ付けされた質問 「kvm-virtualization」

KVM(カーネルベースの仮想マシン用)は、仮想化拡張機能(Intel VTまたはAMD-V)を含むLinux on x86ハードウェア用の完全仮想化ソリューションです。これは、コア仮想化インフラストラクチャを提供するロード可能なカーネルモジュールkvm.koと、プロセッサ固有のモジュールkvm-intel.koまたはkvm-amd.koで構成されています。必要な変更を上流で取得する作業が進行中ですが、KVMには変更されたQEMUも必要です。

2
KVMはタイプ1またはタイプ2ハイパーバイザーですか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 4日前に閉鎖されました。 KVMはタイプ1またはタイプ2ハイパーバイザーですか? タイプ1ハイパーバイザーはベアメタルで実行され、タイプ2ハイパーバイザーはオペレーティングシステム(VMware Workstationなど)上で実行されるアプリケーションであることを理解しています。また、タイプ1クライアントとタイプ2クライアントのパフォーマンスの違いが大きくなることも理解しています。 デスクトップ環境をdom0にインストールできることを理解しているため、KVMがタイプ1または2であるかのように混乱しています。

4
FlashCacheを使用したIOの改善
RAID 1(SW-RAID)で実行する2台のHDD(2x 1 TB)を備えたサーバーがあります。を使用してIOのパフォーマンスを向上させたいflashcache。を使用して、KVM仮想マシンが実行されていLVMます。 これに関して、次の質問があります。 これでも機能しますか?flashcacheブロックデバイスで動作しますが、これらはすべて独自の設定を持つ仮想マシンです。 パフォーマンスはどれくらい向上すると予想されますか?ほとんどの仮想マシンは、Webサイトといくつかのホストゲームを実行します。 SSDの大きさはどれくらい必要ですか?SSDを大きくすると、より多くのファイルをキャッシュできるため、パフォーマンスが向上しますか? SSDが死んだ場合はどうなりますか?うflashcache伝統的なHDDからファイルを取得し、私は単純にSSDを交換するだろうか? およびwritebackに比べてどれくらい速くなりますか?writethroughwritearound 残念ながらテストシステムにアクセスできflashcacheないため、ディスクをアンマウントせずにライブサーバーにインストールできますか?ここで、私が使用するすばらしいチュートリアルを見つけました。

4
UbuntuでKVMを使用したlibvirt 0.8.3を使用したホストからゲストへのポート転送
ホストには使用可能な外部IPが1つしかないため、KVMゲストをNATで設定します。 外部からの要求の一部をゲストに転送するポート転送を設定するにはどうすればよいですか? これに関するドキュメントが見つかりませんでした。最も近い答えはおそらくこの答えですが、libvirt 0.8.3でこれを行う簡単な方法もあると述べています。誰でもこれを行うための最新の方法を知っていますか?

7
厳しい選択:XenまたはKVM
私は新しいワークステーションを構築しており、WindowsとともにLinuxを使用したいと考えています。これは、XenまたはKVMのいずれかに精通する良い機会のようです。 だから私は選択に直面しています。Xenを使用することに賛成して、ドメイン間で非常に明確な境界線を持つタイプ1ハイパーバイザーが表示されます。一方、KVMは最新のカーネルとの互換性の点で先行しているようです。 「xen vs kvm」をグーグル検索し、結果の最初のページを分解しました。また、サーバーフォールトの検索を何度か行ったことがありますが、今では頭の中で跳ね返っているさまざまな事実があります。 要するに、私はどちらの方法でジャンプするか本当にわかりません。私にとって本当に重要なのは: ハイパーバイザーとゲストの両方の安定性合理的なパフォーマンス、特にWindowsゲスト向け強力なゲスト隔離管理のしやすさゲストへのUSBパススルー これらすべてを念頭に置いて、どちらがより良い選択肢だと思いますか? 更新 -数か月後。 近い将来同じ質問をする人のために、これはすべて最終的にどのように展開されるかです: OpenSuse 11.2でXenを使い始めたのは、11.3がリリースされる数日前です。suse更新チャネルが非常に遅いことがわかりました(それが私にとって特別な問題であるかどうかはわからない)。Xenをすぐに起動して実行しましたが、ゲストのネットワークアダプターに大きな悲しみがありました。 Ubuntu 9.10はこれを行っているときにリリースされたので、試してみることにしました。システム自体は素晴らしく、KVMはそのまま使用できました。しかし、私は私が感じたことを時折安定性の問題だったかもしれません KVMに関連しているが(当時の他の容疑者は、CompizのとNFSました)。 安定性の問題がKVMに関連しているかどうかを確認するために、VirtualBoxを試してみると、素敵なインターフェイスと驚くほど優れたパフォーマンスでさらに使いやすいことがわかりました。 安定性の問題はまだ解消されていないので、KVMに問題はなかったと思いますが、現時点ではVirtualBoxを使い続けています。 私が今日いるところ。これが誰かに役立つことを願っています。

1
KVMゲストは、非ルートが所有する9p共有に書き込むことができません
KVMゲストの9p共有への完全な書き込みアクセスをセットアップすることを目指しています。ホストとゲストの両方に、同じIDを持つ同じユーザー/グループがあります。ホストとゲストの両方が同じユーザー名を使用して共有に書き込むことができるはずであり、ファイルがホストによって書き込まれたかゲストによって書き込まれたかを区別したくありません。Iセット- KVMプロセスがrootとして実行されているuserとgroupするroot/etc/libvirt/qemu.confインチ ホスト上のゲスト定義では、共有は次のように定義されます。 <filesystem type='mount' accessmode='passthrough'> <source dir='/mnt/storage/data'/> <target dir='data'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/> </filesystem> ゲストでは、共有は次のようにマウントされます。 mount -t 9p -o rw,trans=virtio,version=9p2000.L,msize=262144 data /mnt/data 問題は、ゲストのrootユーザーが、ホストの非rootユーザーが所有するファイル/フォルダーに書き込めないことです。さらに奇妙なことに、ゲストのルートはそのようなファイルの名前を変更して削除できます。つまり、ホストマシン上で非ルートユーザーとしてファイルを作成すると、ファイルの名前を変更して削除することはできますが、ゲストのルートとして編集することはできません。 また、ルート以外のユーザーの下でホスト上に作成されたフォルダーのアクセス許可が777に設定されている場合、ゲストのルートが書き込み(つまり、ファイルを作成)できることもわかりました。ただし、これはファイルには適用されません。許可に関係なくファイルを編集することはできません。 ホストとゲストの両方がLinuxサーバー3.2.0-4-amd64#1 SMP Debian 3.2.51-1 x86_64 GNU / Linuxを実行しています。Debianでは、SELinuxはデフォルトで無効になっていますが、有効にしませんでした。利用可能な3つの9pアクセスモード(passthrough、mappedおよびsquash)をすべて試してみましたが、違いはありません。 私はそれを機能させるために微調整できるものがあるかどうか疑問に思っていますか、それとも単なるバグですか? ここでも同様の問題が報告されていることに注意してください:libvirt / qemuを使用したパススルー(9p)ファイルシステムの読み取り/書き込みアクセス?しかし、その場合とは異なり、rootが所有するファイルに対して100%の書き込みアクセス権があります。これは、ゲストのrootであっても書き込むことができない非rootユーザーファイルです。

5
KVMでオンラインディスクのサイズ変更は可能ですか?
いくつかのプロジェクトでLinux仮想化用のKVMを評価しています。これまでのところ、すべて順調です。ただし、要件の1つは、再起動したりオフラインにすることなく、実行中のゲストにディスク領域を追加できることです。これはKVMで可能ですか? 私がこれまでに見つけた唯一の(まだテストはしていない)ことは、ディスクをマシンにホットプラグできることです。このルートを選択すると、常にゲストのLVMボリュームグループに新しいディスクを追加し、選択した論理ボリュームを拡張できます。このアプローチの最大の欠点は、時間が経つにつれて、ゲストが可変数の仮想ディスクを持つことになってしまうことです。「実際の」ディスクスペースはSANを介してホストに提供されるため、いつでもホストにスペースを追加できます。

8
小規模構成向けの無料のハイパーバイザー
非営利組織の仮想化用のサーバーを構築しています。VMware ESXIを無料で使用することを計画していましたが、新しいESXIはvSphere Clientで十分にサポートされていないようで、代わりに使用されるはずのWebインターフェイスは無料ではないため、2番目に私の計画を推測しています。 ハードウェア上では、たった1つのサーバーに制限されています。おそらく、32 GB RAM、2 x 256 GB SSD、2 x 1TB HDDを備えたSupermicro X10SRH-CLN4F-O上のXeon E5-1650 v3(6 x 3.5 Ghz)になります。ボードには、ESXIで動作するはずのオンボードLSI SAS 3008コントローラがあります。 サーバーを使用して、アカウンティング(WS 2012 R2)、pfsense(vpn /ルーティング)、および約2つのLinux VMを内部データベースアプリケーション、メール(zarafa)、アクティブディレクトリ(samba 4)、およびファイルとプリンターサーバーに使用する予定です。 XenServerまたはKVMを使用した方が良いでしょうか?XenServerのプラス面は、私にとっては完全に無料(KVMと同じ)ですが、KVMには欠けているような非常に優れた管理インターフェイスがあることです。しかし、マイナス面は、ローカルストレージの適切なサポートが不足していることです。データベース用に未加工のSSDストレージをVMに提供したかった(アカウンティングおよび内部ツール-最も頻繁に使用されます)が、XenServerではサポートされていないようです。反対側のKVMはそれをサポートしているようですが、KVMとWindows Serverのパフォーマンスが非常に悪いという悪い思い出があります。 私にとって重要なポイント 性能 使いやすさ(基本的なタスク、マニュアル、質問をするための優れたコミュニティ用のまともなUIなど) バックアップ機能(現在のところ移行は1台のサーバーしかないため、VMのスナップショットとバックアップを手動で新しいサーバーに転送する必要があります) 信頼性 無料

1
KVMゲストioはホストioよりもはるかに遅い:それは正常ですか?
CentOS 6.3でQemu-KVMホストシステムをセットアップしています。ソフトウェアRAID10で動作する4つの1TB SATA HDD。ゲストCentOS 6.3は別のLVMにインストールされます。ゲストのパフォーマンスはホストのパフォーマンスとほぼ等しいと人々は言いますが、私はそうは思いません。私のI / Oテストでは、ホストシステムよりもゲストでのパフォーマンスが30〜70%遅くなっています。スケジューラ(elevator=deadlineホストとelevator=noopゲストに設定)をblkio.weight変更し、cgroupで1000に設定し、ioをvirtio に変更しようとしました...しかし、これらの変更はどれも重要な結果をもたらしませんでした。これはゲストの.xml構成部分です。 <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </disk> 私のテストがあります: ホストシステム: オゾン試験 # iozone -a -i0 -i1 -i2 -s8G -r64k random random KB reclen write rewrite read reread read write 8388608 64 189930 …

5
IntelよりAMDプロセッサーを選択する際の考慮事項
私は、レガシーLAMP Webアプリケーションが多数ある会社で働いています。そこでは、ハードウェアを250台の物理サーバーから40台の新しいサーバーw /仮想化に更新しようとしています。ベンダーから2つの見積もりを受け取りました。1つはIntelプロセッサーを提案し、もう1つはAMDを提案しています。 AMDのコア数が多いことで気に入っていることの1つは、コアをVM専用にすることができるということです。つまり、スパイクによってアプリケーションが相互に干渉する可能性が低くなります。ピークパフォーマンスよりも重要です。 私が念頭に置いている他の考慮事項は次のとおりです。 消費電力は異なる場合があります(この場合は問題ではありません)。 CRC32(SSE 4.2)などのCPU命令はサポートされません(編集:MySQL 5.6はSSE4.2をサポートしているようです。Apacheについてはわかりません) MySQLは、〜16 /〜32コア以降は完全にスケーリングしません(このトレードオフを受け入れます。) 他にどのような考慮事項が欠けていますか? (モデレーターへの注意:私はこのスレッドを知っています -私は質問が少し異なると考えます。) 編集:タスクが並外れて並列(ウェブサーバー)であり、データベースサーバーがそれほど並列でないことは気にしないと仮定します。

4
qcow2 kvmゲストのバックアップ
qcow2 kvmゲストのバックアップに関する良い情報が見つかりません。ゲストの実行状態にはあまり興味がなく、ファイルシステムのみに興味があります。この質問は、使用savevmすることをお勧めしますが、スナップショットを作成します。ファイルシステムをリモートでバックアップしたい。 より良い方法はありますか: suspend virt_machine#仮想マシンを一時停止 rsync --sparse /home/vm/image.qcow2 /tmp/image.dec_14_2010.qcow2# 同じドライブにイメージをコピー virt_machineを再開する rsync --sparse /tmp/image.dec_14_2010.qcow2 ssh:// backup @ backupmachine:/ vmbackups これにはいくつかの欠点があります。まず、巨大な画像ファイルのコピーには(比較的)長い時間がかかります。次に、マシンをバックアップするのに十分なスペースがあることを常に確認する必要があります。これは理想的ではありません。KVMバックアップを管理する他の優れた方法はありますか? ありがとう。


4
LinuxでKVMデバイスパススルーを有効にするにはどうすればよいですか?
MSI-GD65ゲーム用マザーボードとIntel i7 4790を使用しています。BIOSのCPU機能セクションでVT-Dが有効になっています。 Ubuntu 14.04.1 LTSを実行していますが、デバイスを切り離そうとすると、次のメッセージが表示されます。 #virsh nodedev-detach pci_0000_00_1f_2 エラー:デバイスpci_0000_00_1f_2の切り離しに失敗しましたエラー:サポートされていない操作:VFIOもKVMデバイスの割り当てもこのシステムでは現在サポートされていません DmesgにはIOMMUに関するいくつかの情報が含まれていますが、これがVT-Dが有効になっていることを意味するかどうかはわかりません $ dmesg | grep -i iommu [0.027450] dmar:IOMMU 0:reg_base_addr fed90000 ver 1:0 cap c0000020660462 ecap f0101a [0.027455] dmar:IOMMU 1:reg_base_addr fed91000 ver 1:0 cap d2008020660462 ecap f010da [0.027521] DRHD base 0xfed91000 IOMMUの下のIOAPIC id 8 誰かがこのシステムでVT-Dを有効にし、PCIデバイスをKVMゲストにパススルーするために何をする必要があるかアドバイスできますか?

1
88の物理コアを持つKVMホストは、64コアのゲストで14のみを使用します
2つのCPU(それぞれ22コアとHT)を搭載したサーバーがあります。64個のコアが割り当てられたKVMゲストを作成しました。コンパイルタスクを実行すると、仮想マシンは64コアすべてを100%(中程度のディスクI / Oおよびメモリ使用量)で表示しますが、物理マシンではゲストは88コアすべてではなく、100%で14コアのみをランダムに使用します(または100%の64個の専用コア)。コンパイルタスクをさらに生成しても、これは変わりません。利用可能なすべての計算能力を実際に使用するために変更する必要があるパラメーターまたは設定はありますか?

3
KVM / libvirtホストとゲスト間で共有されるLVMボリュームグループ:これは悪い考えですか?
4つのSATA IIハードドライブを搭載し、CentOS 5.5 x86_64を実行する、光沢のある新しいKVM / libvirtベースの仮想マシンホストを構築しました。 ディスクをqcowイメージとして作成する通常のプラクティスの代わりに、libvirtストレージプールとして管理されるLVMボリュームグループに論理ボリュームとして仮想マシンディスクを作成することにしました。 私が決められないのは、VMホストのボリュームグループに仮想マシンの論理ボリュームを作成するか、専用のボリュームグループに作成するかです。 どの方法を選択する必要があり、なぜですか? 方法1:VMホストのボリュームグループを使用する 実装: ファイルシステムmd0を含む小さなRAID1/boot md1LVMボリュームグループを含む残りのスペースを占める大きなRAID10 vghost。vghostVMホストのルートファイルシステムとスワップパーティションが含まれます vghost必要に応じて、仮想マシンディスクを論理ボリュームとして作成します 長所: VMホストのルートファイルシステムがスペースを使い果たした場合、vghost比較的簡単により多くのスペースを割り当てることができます システムはすでに稼働しています(ただし、最初からやり直すことは大したことではありません) 短所: この方法が機能しているように見えるという事実を無視して、これが何らかの形で悪い考えであるという感覚を揺るがすことはできません。私はそのように感じる: これは何らかの形でセキュリティリスクになる可能性があります 将来のある時点で、セットアップに何らかの制限があり、専用のグループを使用したい システム(CentOS、libvirtなど)は実際にはこのように使用するように設計されていない可能性があるため、ある時点でVMホストのファイルやファイルシステムを誤って破損/紛失する可能性があります 方法2:専用のボリュームグループを使用する 実装: 方法1 md0と同じmd1。ただしmd1、VMホストを収容するのに十分な大きさにする(5〜10GBなど) md2残りのスペースを占める大きなRAID10 。論理ボリュームが仮想マシンによって排他的に使用されるmd2LVMボリュームグループを含むvgvms 長所: vgvmsホストOSを壊すことを恐れずにいじることができます これはよりエレガントで安全なソリューションのようです 短所: VMホストのファイルシステムがスペースを使い果たした場合、そのファイルシステムの一部(たとえば、/ usrまたは/ var)をvgvmsに移動する必要があります。 ホストOSを再インストールする必要があります(以前に述べたように、実行することはあまり気にしません) 更新#1: 方法2でVMホストのディスク領域が不足することを心配する理由の1つは、VMホストがすべてのサービスを仮想マシンで実行できるほど強力かどうかわからないためです。一部またはすべてのサービスを仮想マシンからホストOSに移行する必要がある場合があります。 VMホストのハードウェア仕様: Phenom II 955 X4 Black Editionプロセッサー(3.2 GHz、4コアCPU) 2x4GB Kingston PC3-10600 …

5
アイドル状態のWindows VMが大量のCPUを使用しているのはなぜですか?
Ubuntu 10.04で実行されているKVM仮想化プラットフォームでゲストとして実行されている2つのVMがあります。1つのVMはUbuntu 10.04システムで、もう1つのVMはWindows 7システムです。両方のマシンが完全にログアウトされると、Linuxマシンは1%のCPUを使用し、Windowsは45〜50%を使用します。virt-managerのグラフはこれを裏付けているようです。バックグラウンドで実行されるWin7イメージには何もインストールされていません。できるだけ新鮮です。 両方がログアウトしてアイドリングしているときに、Windows VMがLinux VMよりもはるかに多く使用しているのはなぜですか? 編集: get-goの準仮想化ストレージとネットワークドライバーを使用してゲストをインストールしました。私が行方不明になっている他のドライバーがあるとは思わない、私は間違っていますか? ゲストのタスクマネージャーによると、実際にはアイドル状態です。TaskmanはゲストCPUの約1または2%を使用しますが、CPU時間を使用する他のプロセスはありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.