タグ付けされた質問 「libvirt」

libvirtは、仮想マシンハイパーバイザー、それらの下で実行されている仮想マシン、および仮想マシンストレージを管理するアプリケーションを開発するためのAPIおよびツールキットです。

5
libvirt / KVMのゲストへのポートの転送
NATを使用している場合、libvirt / KVMを実行しているサーバーのポートをVMの指定されたポートに転送するにはどうすればよいですか? たとえば、ホストのパブリックIPは1.2.3.4です。ポート80を10.0.0.1に、ポート22を10.0.0.2に転送します。 iptablesルールを追加する必要があると思いますが、どこが適切で、何を正確に指定する必要があるのか​​わかりません。 iptables -Lの出力 Chain INPUT (policy ACCEPT) target prot opt source destination ACCEPT udp -- anywhere anywhere udp dpt:domain ACCEPT tcp -- anywhere anywhere tcp dpt:domain ACCEPT udp -- anywhere anywhere udp dpt:bootps ACCEPT tcp -- anywhere anywhere tcp dpt:bootps Chain FORWARD (policy ACCEPT) target prot …

3
KVM / libvirt:仮想化ホストで静的ゲストIPアドレスを構成する方法
ホストシステムからゲストのネットワーク構成(IPアドレス、サブネット、ゲートウェイ、ブロードキャストアドレス)を設定します。使用されているネットワーク設定はbridgeモードです。クライアント自体を静的なネットワーク構成に構成するのではなく、ホストからネットワークを構成するにはどうすればよいですか? 私が実行した場合: virsh edit vm1 そこにある<network>だけでなく、ブロックが、私はそこからネットワークインターフェイスを設定しようとしたが、残念ながらゲストVMは、それを使用していないようだと(それが唯一の自動ネットワーク設定を使用しているため)などのネットワークにオフラインになっている...ユーザーレビューVMは、LinuxベースとWindowsベースの両方です。どんな助けも大歓迎です。

1
KVMとLibvirt-新しいvirtioディスクをホットプラグする方法
実行中のKVM仮想サーバーにファイルベースのディスクをホット追加しようとしています。コマンドを使用してゼロから新しいディスクを作成しました dd of=/home/cloud/vps_59/test.img bs=1 seek=5G count=0 そして、virshシェルでこれを実行することで、ゲストにホットアドされることを望んでいました。 virsh # attach-disk vps_59 /home/cloud/vps_59/test.img \ vdd --driver=file --subdriver=raw ドメインのXML定義は次のようになります。 <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/home/cloud/vps_59/root.img'/> <target dev='vda' bus='virtio'/> </disk> <disk type='file' device='disk'> <driver name='file' type='raw'/> <source file='/home/cloud/vps_59/test.img'/> <target dev='vdd' bus='virtio'/> </disk> ご覧のとおり、ドライバー名が間違っているdriver name='qemu'ため、既存のvdaディスクのままにしてください。試しました--drive=qemuが、サポートされていないことを示しています。 第二に、Ubuntu 10.04.4 LTSを実行している仮想マシンを再起動すると、新しく追加されたドライブのみが「表示」されます。ドライブを「ホットプラグ」するにはどうすればよいですか?仮想マシンに、再起動せずにすぐに新しいドライブを「表示」させたい。


1
virt-installでゲストを作成した後にゲストを削除する方法
virt-installコマンドラインオプション--disk pool=vg0,size=20とを使用したコマンドラインからKVMゲストを作成しました--name virt1.example.com。 このKVMゲストをコマンドラインから削除するにはどうすればよいですか?もう必要ありません。 記録のためだけに、コマンドライン全体が virt-install --debug --hvm --vnc --name virt1.example.com --os-type=linux --os-variant=rhel6 --pxe --network network=default,model=e1000,mac=02:54:00:13:be:e4 --disk pool=vg0,size=20 --ram 1024 --vcpus=1 ここにいくつかの追加情報があります [root@server ~]# virsh vol-list vg0 Name Path ----------------------------------------- lv0 /dev/vg0/lv0 lv_swap /dev/vg0/lv_swap virt1.example.com.img /dev/vg0/virt1.example.com.img [root@server ~]# virsh list Id Name State ---------------------------------- 3 virt1.example.com running 更新 これら3つのコマンドを実行すると、インストールされているKVMが削除されるようです virsh …

5
libvirtを使用して再開されたKVMゲストの時間を保つ方法
私のホストでは、libvirtとKVMゲストを使用しています。ホストがシャットダウンされると、libvirtはゲストを一時停止します。ホストが起動すると、libvirtはゲストを再開します。問題は、たとえばゲストが24時間後に一時停止および再開される場合、ゲスト時間は過去24時間であるということです。 おそらくクロックソースに問題があると思いますが、すでに「kvm-clock」に設定されています。 $ cat /sys/devices/system/clocksource/clocksource0/available_clocksource kvm-clock tsc hpet acpi_pm $ cat /sys/devices/system/clocksource/clocksource0/current_clocksource kvm-clock


15
Ubuntu用のWebベースのKVM管理
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 複数のKVM仮想マシンを実行したい単一のUbuntu 9.10ルートサーバーがあります。これらの仮想マシンを管理するには、WebベースのKVM管理ツールが必要ですが、linux-kvm.orgに記載されているツールのリストからどれを選択するのかわかりません。 デスクトップでvirshとvirt-managerを使用しましたが、サーバーのWebインターフェイスが必要です。ConVirtをデスクトップでテストしましたが、virsh / virt-managerからKVMマシンをピックアップできず、KVM仮想マシンのインポートを動作させることができませんでした(Xenのみ)。 oVirtは良さそうですが、Ubuntu 9.10にインストールできるかどうか、どのようにインストールできるかわかりません。 Ubuntu 9.10に簡単にインストールできる優れたWebベースのKVM管理ツールを誰でも推奨できますか? 仮想マシンのホストに加えて、apacheやpostgresqlなどの他のサービスも実行できるようにするものを探しています。専門的なクラスタリングや移行などは必要ありません。Webページから仮想マシンを作成、開始、検査、管理、停止できるものだけです。 よろしく、ティム 更新: 誰か提案がありますか?ここはひどく静かです。

2
libvirt / qemuを使用したパススルー(9p)ファイルシステムの読み取り/書き込みアクセス?
最近、KVM / QEMU / libvirtの最近のバージョンでパススルーファイルシステムのサポートの実験を開始しました。ファイルシステムを読み取りアクセスに使用できるようにすることは「うまくいきました」が、書き込みアクセスがどのように機能するかについては少し困惑しています。ゲストにファイルシステムをマウントした後: # mount -t 9p -o trans=virtio /fs/data /mnt modeがある場合、既存のファイルを変更できますo+w。 # cd /mnt/work # ls -l foo -rw-rw-rw-. 1 root root 17 Dec 20 11:16 foo # cat foo this is line one # echo this is line two >> foo # cat foo this is …

4
UbuntuでKVMを使用したlibvirt 0.8.3を使用したホストからゲストへのポート転送
ホストには使用可能な外部IPが1つしかないため、KVMゲストをNATで設定します。 外部からの要求の一部をゲストに転送するポート転送を設定するにはどうすればよいですか? これに関するドキュメントが見つかりませんでした。最も近い答えはおそらくこの答えですが、libvirt 0.8.3でこれを行う簡単な方法もあると述べています。誰でもこれを行うための最新の方法を知っていますか?

3
Red Hat / CentOS EL6上のLinuxコンテナー(LXC)-lxc-create対libvirt?
Red Hatの優雅さを維持し、システムの寿命を延ばそうとするのは難しい... 私は1年以上、Linux Containers(LXC)の支持者です。私の最初のインストールは、のようなオンラインチュートリアルから収集された情報に基づいていた、この1と、この1。これはlxc-create、lxc-start|stopおよびlxc-destroyコマンドを中心に、既存のOpenVZテンプレートを変更します。 これはうまく機能し、本番環境で問題なく動作しています。しかし、私はいくつかの追加システムを立ち上げており、EL6のコンテナに関するRed Hatの現在のドキュメントを確認することにしました。これに対する彼らの公式の姿勢を見て驚いた。 ではないRHEL 6は、Linuxコンテナを使用するために必要なLXCツールを提供しますか?、Red HatはとしてLXCを説明し、技術プレビューとコンテナの作成と管理を管理するためのlibvirtを使用することを提案しています。 しかし、Oracle は Unbreakable Linuxでまったく異なるコンテナー化手法を提唱しています。 libvirtメソッドにはいくつかの機能が欠けているように見えますが、lxc- *コマンドを使用した最初のアプローチは少し手動のプロセスでした... 。 今日のLXCおよびRHELのようなシステムに関する従来の知恵は何ですか? どのようにしているあなたは、あなたの組織でそれらを実装しますか? あるアプローチと他のアプローチの利点はありますか? これらは共存できますか?

3
デフォルトのストレージプールをlibvirtから変更するにはどうすればよいですか?
VMの仮想ディスクと、使用しているオペレーティングシステムのISOを保存するために、KVMで別のストレージプールを使用しようとしています。 例:今後/media/work/kvmマウントさ/dev/sda5れるすべての状況のデフォルトのストレージプールとして、にマウントされたディレクトリを使用したい 新しいストレージプールを構成、作成、開始するのはとても簡単ですが、少なくともUbuntuでは、別のストレージプールからISOを選択しているかどうかは関係ありません。VirtualMachine Managerは常にデフォルトのストレージをポイントします/var/cache/libvirtVM(仮想マシン)の仮想ディスクが作成されるストレージとしてのプール()。 どうすればこれを回避できますか?

5
libvirt:再起動せずにdhcp-setupを変更
libvirtとkvmを使用してサーバーを仮想化しています。libvirtを設定してbridge-network-interfaceでdhcp-serverを起動し、vmのIPを提供します。すべてのVMは、そのMACに基づいて常に同じIPを取得します。これは次のように構成されます。 <dhcp> <range start='10.1.1.2' end='10.1.1.254' /> <host mac='54:52:00:21:01:ba' name='virstvm' ip='10.1.1.10' /> <host mac='00:16:36:2d:71:f9' name='secvm' ip='10.1.1.20' /> </dhcp> 問題:dhcpセクションに新しいホストを追加するたびに、すべてのvmを再起動するlibvirt-binを再起動する必要があります。新しいサーバーを追加するたびにダウンタイムが発生するため、これは解決策にはなりません。解決策はありますか?

8
KVM + libvirtを使用してDHCPクライアントのリストを取得しますか?
Ubuntu 9.10でKVM + libvirtを介して複数のVMを実行しています。各マシンに物理的な「コンソール」を物理的に開き、を呼び出さずに、各ホストに割り当てられたIPアドレスを見つけたいと思いifconfigます。 考慮してください: rascher @ localhost:〜$ virsh -c qemu:/// system list --all uriへの接続:qemu:/// system Id Name State ---------------------------------- 1台のマシンが実行中 2台のmachine2が実行中 -machine3が停止しました 私のネットワーク構成は次のようになります。 <network> <name>default</name> <uuid>1be...</uuid> <forward mode='route' dev="eth0"/> <bridge name='virbr0' stp='on' forwardDelay='0' /> <ip address='192.168.122.1' netmask='255.255.255.0'> <dhcp> <range start='192.168.122.2' end='192.168.122.254' /> </dhcp> </ip> </network> それでは、次のようなリストを取得するにはどうすればよいですか? machine1 IPアドレス= 192.168.122.16 …

1
KVM / Qemu、Ubuntu:より多くのゲストCPUがディスクI / Oを急速に拡張するのはなぜですか?
2つのノードで構成されるハートビート/ DRBD / Pacemaker / KVM / Qemu / libvirtクラスターがあります。各ノードは次のパッケージ/バージョンでUbuntu 12.04 64ビットを実行します。 カーネル3.2.0-32-generic#51-Ubuntu SMP DRBD 8.3.11 qemu-kvm 1.0 + noroms-0ubuntu14.3 libvirt 0.9.13 ペースメーカー1.1.7 ハートビート3.0.5 仮想ゲストはUbuntu 10.04 64ビットおよびUbuntu 12.04 64ビットを実行しています。最高のCPUパフォーマンスを実現するために、libvirt機能を使用してホストCPUの機能を仮想ゲストに渡します。 これがこのクラスターの一般的なセットアップです。 VMの「監視」には4つのvCPUがあります VMの「監視」はideをディスクインターフェイスとして使用します(現在、明らかな理由によりVirtIOに切り替えています) 最近、いくつかの簡単なテストを実行しました。私は彼らが専門家ではなく、高い基準に達していないことを知っていますが、すでに強い傾向を示しています: ノードAはVM「bla」を実行していますノードBはVM「監視」を実行しています VM "bla"からVM "monitoring"にファイルをrsyncすると、12 MB /秒しか達成されません。VMの「監視」内で単純なdd if = / dev / null of = / tmp / …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.