タグ付けされた質問 「lvm」

コンピューターストレージでは、論理ボリューム管理(LVM)は、大容量ストレージデバイスにスペースを割り当てる方法を提供します。これは、従来のパーティションスキームよりも柔軟性があります。

7
仮想ディスクの成長後にLinux PVパーティションをオンラインで拡張する方法
VMwareでは、VMの実行中に仮想ディスクのサイズをオンラインで拡張できます。Linuxシステムで次に予想される手順は次のとおりです。 パーティションを拡張します:削除してより大きなパーティションを作成します fdisk PVサイズを拡張する pvresize lvresize操作に空きエクステントを使用する そして、resize2fsファイルシステム用 しかし、私は最初のステップにこだわっています:fdiskそして、sfdiskまだディスクの古いサイズを表示しています。 私のディスクは、仮想LSI Logicコントローラーのおかげで接続されたSCSI仮想ディスクです。 Linuxカーネルで利用可能な仮想ディスクサイズとパーティションテーブル情報を再起動せずに更新するにはどうすればよいですか? 私が知る限り、そのすべてのステップは、再起動せずに、VMWareツールのおかげでユーザーのアクションなしでも、実行中のWindowsで可能です。Linuxでは、すべてのステップをオンラインで行うことを期待していますが、ステップ2、3、および4がオンラインで機能することは既に知っています。しかし、最初のもの-パーティションテーブルで宣言されたパーティションサイズの変更(まだ)には再起動が必要なようです。 更新:私のシステムはカーネル2.6.26を備えたDebian Lennyであり、拡張したディスクは「/」の「ルート」LVを含む大容量PVを備えたメインディスクです。

4
LVMスナップショットを保持またはドロップする方法
LVMスナップショップを作成しました lvcreate --name snap --size 10G -s /dev/vg00/vm スナップショットを削除し、スナップショット以降に発生した変更を保持しない場合、どのコマンドを記述する必要がありますか? そして、スナップショットからの変更を/ dev / vg00 / vmにロールするには、どのコマンドを書くべきですか?
14 linux  lvm  snapshot 

5
KVMでオンラインディスクのサイズ変更は可能ですか?
いくつかのプロジェクトでLinux仮想化用のKVMを評価しています。これまでのところ、すべて順調です。ただし、要件の1つは、再起動したりオフラインにすることなく、実行中のゲストにディスク領域を追加できることです。これはKVMで可能ですか? 私がこれまでに見つけた唯一の(まだテストはしていない)ことは、ディスクをマシンにホットプラグできることです。このルートを選択すると、常にゲストのLVMボリュームグループに新しいディスクを追加し、選択した論理ボリュームを拡張できます。このアプローチの最大の欠点は、時間が経つにつれて、ゲストが可変数の仮想ディスクを持つことになってしまうことです。「実際の」ディスクスペースはSANを介してホストに提供されるため、いつでもホストにスペースを追加できます。

5
ネットワーク上で論理ボリュームをあるサーバーから別のサーバーに直接移動しますか?
複数のVMを搭載したKVMホストマシンがあります。各VMは、ホスト上の論理ボリュームを使用します。LVを別のホストマシンにコピーする必要があります。 通常、次のようなものを使用します。 dd if=/the/logical-volume of=/some/path/machine.dd LVをイメージファイルに変換し、SCPを使用して移動するには。次に、DDを使用して、新しいホスト上の新しいLVにファイルをコピーします。 この方法の問題は、両方のマシンでVMが使用するディスク容量の2倍の容量が必要なことです。すなわち。5GB LVはLVに5GBのスペースを使用し、ddコピーもイメージに追加の5GBのスペースを使用します。これは小さなLVには問題ありませんが、(私の場合のように)大きなVMに500GBのLVがある場合はどうでしょうか?それは500ギガバイトは、画像ファイルをddを保持することはできませんので、新しいホストマシンは、1TBのハードディスクドライブを持っているとにコピーする500ギガバイトの論理ボリュームを持っていると、ホストOSの余地持っや他の小さなゲストのための部屋を。 私がやりたいのは次のようなものです: dd if=/dev/mygroup-mylv of=192.168.1.103/dev/newvgroup-newlv つまり、ネットワークを介して1つの論理ボリュームから別の論理ボリュームにデータを直接コピーし、中間イメージファイルをスキップします。 これは可能ですか?
13 lvm  dd  files 

5
LVMと災害復旧
LVMとは何か、またLVMが何を成し遂げているのかは理解していますが、いくつか不足しているように感じます。 sdaとsdbの2つの物理ドライブがあるとします。どちらも100メガです。それらをVolumeGroup1に入れ、200メガバイトのLogicalVolume1を1つ作成します。 150 MBのファイルを作成するとどうなりますか?100メガバイトは物理的にsdaに、50メガバイトはsdbにありますか?もしそうなら、ファイルの一部が一方のドライブにあり、別の部分がもう一方のドライブにあることをOSに伝えるものは何ですか? ドライブの故障はどうですか?RAIDがないと仮定して、sdbが失敗した場合、sda上のすべてのデータは失われますか?とにかく、どのファイルがどの物理ドライブにあるかを制御する方法はありますか? 一般的にLVMをどのように管理しますか?1つまたは2つの大きなボリュームグループを作成してから、意味のあるパーティションを作成しますか?他のヒントはありますか?
13 linux  storage  lvm 

3
Linuxデバイスマッパーは、スナップショットを撮るときにLV内にネストされたLVM PVをマップします
これは本当にこのマシンをバックアップする私の計画を台無しにしています... 複数の仮想マシンに対するKVMハイパーバイザーであるサーバーがあります。これらの1つはDockerを実行しています。LVM PVとして設定された/ dev / vdbにDockerボリュームがあり、Dockerはdirect-lvmドライバーを使用して Dockerコンテナデータを保存します。この仮想ディスクは、ホストのローカルディスク上のLVM LVです。 ホストとゲストの両方がFedora 21を実行します。 このボリュームのホストのビューは次のとおりです(関連するボリュームのみが表示されます)。 [root@host ~]# lvs LV VG Attr LSize docker2.example.com-volumes vm-volumes -wi-ao---- 40.00g [root@host ~]# dmsetup ls --tree vm--volumes-docker2.example.com--volumes (253:10) └─ (9:125) このボリュームのゲストのビューは次のとおりです(ここでも、関連するボリュームのみが表示されます)。 [root@docker2 ~]# pvs PV VG Fmt Attr PSize PFree /dev/vdb docker-volumes lvm2 a-- 40.00g 0 ホスト上の他のすべてのLVMボリュームを使用して、スナップショットを取得し、スナップショットをlvcreate --snapshotバックアップlvremoveしてから、問題なくバックアップできます。しかし、この特定のボリュームlvremoveでは、使用されているため、できません。 [root@host …


3
LVMを使用するときに使用済みデバイス/空き領域を表示する方法は?
次の状況があります。 =$ LC_ALL=C df -hP | column -t Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg0-rootlv 19G 854M 17G 5% / /dev/mapper/vg0-homelv 19G 343M 18G 2% /home /dev/mapper/vg0-optlv 19G 192M 18G 2% /opt /dev/mapper/vg0-varlv 19G 357M 18G 2% /var これらのボリュームがどの物理ディスクを使用しているか、どのくらいの空きディスク領域(未割り当て)があるかを知りたいので、どれだけ成長できるかを知りたいと思います。
12 linux  lvm 

5
lvremoveで削除された論理ボリュームを回復する方法
CentOS 5.5を使用しており、Xenを実行しています。lvcreateを使用して論理ボリュームを作成する大きなボリュームグループがあります。今日、顧客にアカウントをキャンセルしてもらい、約1時間後に気が変わった。残念ながら、Xenイメージが常駐しているLVMをすでに削除していました。(標準のlvremoveを使用するだけです)。それ以降、このディスクで他のLVMアクティビティはありません(他に追加または削除されたものはありません)。lvremoveを「元に戻す」、または論理ボリュームを回復することは可能ですか?もしそうなら、私はそれについてどうやって行きますか?
12 lvm 

3
KVM / libvirtホストとゲスト間で共有されるLVMボリュームグループ:これは悪い考えですか?
4つのSATA IIハードドライブを搭載し、CentOS 5.5 x86_64を実行する、光沢のある新しいKVM / libvirtベースの仮想マシンホストを構築しました。 ディスクをqcowイメージとして作成する通常のプラクティスの代わりに、libvirtストレージプールとして管理されるLVMボリュームグループに論理ボリュームとして仮想マシンディスクを作成することにしました。 私が決められないのは、VMホストのボリュームグループに仮想マシンの論理ボリュームを作成するか、専用のボリュームグループに作成するかです。 どの方法を選択する必要があり、なぜですか? 方法1:VMホストのボリュームグループを使用する 実装: ファイルシステムmd0を含む小さなRAID1/boot md1LVMボリュームグループを含む残りのスペースを占める大きなRAID10 vghost。vghostVMホストのルートファイルシステムとスワップパーティションが含まれます vghost必要に応じて、仮想マシンディスクを論理ボリュームとして作成します 長所: VMホストのルートファイルシステムがスペースを使い果たした場合、vghost比較的簡単により多くのスペースを割り当てることができます システムはすでに稼働しています(ただし、最初からやり直すことは大したことではありません) 短所: この方法が機能しているように見えるという事実を無視して、これが何らかの形で悪い考えであるという感覚を揺るがすことはできません。私はそのように感じる: これは何らかの形でセキュリティリスクになる可能性があります 将来のある時点で、セットアップに何らかの制限があり、専用のグループを使用したい システム(CentOS、libvirtなど)は実際にはこのように使用するように設計されていない可能性があるため、ある時点でVMホストのファイルやファイルシステムを誤って破損/紛失する可能性があります 方法2:専用のボリュームグループを使用する 実装: 方法1 md0と同じmd1。ただしmd1、VMホストを収容するのに十分な大きさにする(5〜10GBなど) md2残りのスペースを占める大きなRAID10 。論理ボリュームが仮想マシンによって排他的に使用されるmd2LVMボリュームグループを含むvgvms 長所: vgvmsホストOSを壊すことを恐れずにいじることができます これはよりエレガントで安全なソリューションのようです 短所: VMホストのファイルシステムがスペースを使い果たした場合、そのファイルシステムの一部(たとえば、/ usrまたは/ var)をvgvmsに移動する必要があります。 ホストOSを再インストールする必要があります(以前に述べたように、実行することはあまり気にしません) 更新#1: 方法2でVMホストのディスク領域が不足することを心配する理由の1つは、VMホストがすべてのサービスを仮想マシンで実行できるほど強力かどうかわからないためです。一部またはすべてのサービスを仮想マシンからホストOSに移行する必要がある場合があります。 VMホストのハードウェア仕様: Phenom II 955 X4 Black Editionプロセッサー(3.2 GHz、4コアCPU) 2x4GB Kingston PC3-10600 …

1
ZFSプールまたはLVMボリュームグループは、多くのパーティションを利用するためにより信頼性がありますか?
新しいファイルサーバーの構成でLVMボリュームグループを使用するかZFSプールを使用するかを決定するとき、何を考慮する必要がありますか?多目的ファイルサーバーの領域に「より良い」選択肢はありますか?この前の質問とは異なり、私はテクノロジーを重ねたくありません。 シナリオ: RHEL / CentOS 6 x64サーバー 多くの利用可能な同一のDASおよびSAN LUN 選択: 私は個人的にLVMに精通しているので、LVMがより良いオプションであるなら、LVMを使用しても問題ありません。ただし、ZFSは非常に有望に見え、新しいテクノロジーを学ぶことは常に良いことです。 かなり大きなストア(複数TB)を異なる部門に共有できるようにしたいので、基盤となるプールマネージャーにZFSまたはLVMを使用する場合は、CIFSとNFSの両方でそれらにアクセスできる必要があります。 ? のような製品を使用するFreeNASことは可能ですが、さまざまな理由から、「典型的な」Linuxサーバーに展開できる必要があります。
11 linux  lvm  partition  zfs 

1
LVMでディスクに障害が発生するとどうなりますか?
ESX 4.1ホストでLinuxサーバーを構成しています。このサーバーには、数TBのデータを保存する必要があります。現在、LVMを使用するかどうかについて議論しています。私たちの現在の理由は、複数の2TBボリューム(ESXによって課される制限)を別のボリュームにマウントするのが最善だということです。 /disk1 - 2TB /disk2 - 2TB /disk3 - 2TB 100GBから400GBまでのサイズのディレクトリを保存します。これらのディレクトリは全体として保存する必要があり、分割することはできません。懸念事項は、/ disk1に1.7TBを保存し、さらに400GBを保存する必要がある場合、多くの無駄なスペースが生じることです。その場合、400GBのディレクトリを/ disk2に保存する必要があり、300GBは使用しません。 この問題の1つの解決策は、次のように構成されたLVMです。 -------- Disk 1 | | Disk 2 |---->/disk | Disk 3 | -------- ただし、簡単な質問が1つあります。ディスク2に障害が発生するとどうなりますか? 最初のシナリオでは、ディスク2に障害が発生すると、/ disk2にアクセスできなくなります。 LVMセットアップで、ディスク2に障害が発生した場合、同様になりますか(ディスク2に保存されたデータのみが利用できなくなるなど)、または/ diskのすべてのデータにアクセスできなくなりますか?
11 linux  vmware-esx  lvm 

4
仮想マシンのLVMパーティションをKVMホストにマウントする方法は?
KVMホストで以下を実行しようとすると: # kpartx -av /dev/VolGroup00/kvm101_img add map kvm101_img1 : 0 208782 linear /dev/VolGroup00/kvm101_img 63 add map kvm101_img2 : 0 125612235 linear /dev/VolGroup00/kvm101_img 208845 # mount /dev/mapper/kvm101_img1 /mnt その後、/ bootパーティションがマウントされます。しかし、次のように入力するとエラーが発生します。 # mount /dev/mapper/kvm101_img2 /mnt mount: you must specify the filesystem type ゲストマシンのfdiskレイアウトは次のとおりです。 # fdisk -l Device Boot Start End Blocks Id …

3
使用するKVMディスクの種類
いくつかのKVM仮想ゲストをセットアップしており、使用するディスクタイプを議論しています。私は、それぞれの長所と短所を駆使する優れたリソースをオンラインで見つけることができませんでした。 異なるディスクタイプとそれぞれの長所と短所のリストを作成するのを手伝ってもらえますか?私が知っているディスクの種類は次のとおりです。 生画像 qcow2 専用パーティション(LVMなど) 私はこれらの基準に興味があります: セットアップの容易さ(各タイプの作成はどれくらい簡単ですか) 性能 クローニングのしやすさ 拡張のしやすさ(より大きくするため、仮想ゲストのディスク容量が増える) そのディスクタイプに固有の機能 バックアップのしやすさ 他のホストへの移行 選択肢の評価を手伝ってもらえますか?

5
Logical Volume Managerの利点[終了]
閉じた。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集して事実と引用で答えられるように質問を更新してください。 2年前に閉店。 論理ボリュームマネージャーの機能と、Wikipediaページの詳細を超える潜在的な利点は何ですか?
11 linux  unix  lvm 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.