タグ付けされた質問 「lvm」

コンピューターストレージでは、論理ボリューム管理(LVM)は、大容量ストレージデバイスにスペースを割り当てる方法を提供します。これは、従来のパーティションスキームよりも柔軟性があります。

4
LVMの危険性と警告
最近、一部のサーバーで1 TBを超えるハードドライブのLVMの使用を開始しました。これらは便利で、拡張可能で、インストールが非常に簡単です。ただし、LVMの危険性と警告に関するデータは見つかりませんでした。 LVMを使用することの欠点は何ですか?

3
LVMを使用してEXT4ボリュームをオンラインで縮小することはできますか?
今日、OpenSUSE 12.3(カーネル3.7)を搭載したマシンでこれを試しました。 # resize2fs /dev/mapper/system-srv 2G resize2fs 1.42.6 (21-Sep-2012) Filesystem at /dev/mapper/system-srv is mounted on /srv; on-line resizing required resize2fs: On-line shrinking not supported /dev/mapper/system-srv EXT4ボリュームです。 それは本当にサポートされていないのですか、何か不足していますか?
47 linux  lvm  hard-drive  ext4 


6
RAID上のLVMまたはLVM上のRAIDの優れた点は何ですか?
現在、ソフトウェアRAIDでLVMを使用していますが、長所と短所があると思います。 編集:それはlvmのソフトウェアレイドまたはソフトウェアレイドのlvmについてです。パフォーマンスについて考える場合は、ハードウェアRAIDの方が優れていることを知っています。

4
LVMスナップショットとファイルシステムスナップショット
私の知る限り、LVMはボリュームのスナップショットを取ることを可能にします。スナップショットをサポートする多くのファイルシステム(ZFS、Btrfs、reiserfsなど)もあります。 ただし、LVMスナップショットとファイルシステムスナップショットの違いを理解したことはありません。LVMでスナップショットを取得できる場合、なぜ誰かがそれをファイルシステムに実装するのに時間をかけるのですか? 編集:いくつかの状況でそれらのいずれかが好まれていますか?どうして?
32 lvm  zfs  snapshot  btrfs 

3
物理ドライブが削除された後にvgとlvを削除する
サーバーでディスク障害が発生し、LVMからドライブを削除する前にディスクを交換しました。 サーバーには4つの物理ドライブ(PV)があり、それぞれに独自のボリュームグループ(VG)があります。各VGには2つ以上の論理ボリューム(LV)があります。現在、LVMはドライブの欠落について不平を言っています。したがって、システムからクリアする必要があるよりも孤児になった2つのLVを持つVG(vg04)があります。 問題は、LVMコマンドを実行するたびに、これらの「読み取り失敗」エラーが発生することです。 # lvscan /dev/vg04/swap: read failed after 0 of 4096 at 4294901760: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 4294959104: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 0: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 4096: Input/output error /dev/vg04/vz: …
32 linux  lvm 

1
LinuxでソフトウェアRAIDとLVMを使用する場合、どのIOスケジューラーと先読み設定が優先されますか?
複数のレイヤー(物理ドライブ-> md-> dm-> lvm)の場合、スケジューラー、先読み設定、およびその他のディスク設定はどのように相互作用しますか? mdadmで作成されたソフトウェアRAIDデバイス(/ dev / md0)の一部である複数のディスク(/ dev / sda-​​/ dev / sdd)があるとします。各デバイス(物理ディスクおよび/ dev / md0を含む)には、IOスケジューラ(そのように変更)および先読み(blockdevを使用して変更)の独自の設定があります。dm(crypto)やLVMなどを追加すると、独自の設定でさらにレイヤーを追加できます。 たとえば、物理デバイスに128ブロックの先読みがあり、RAIDに64ブロックの先読みがある場合、/ dev / md0からの読み取りを行うときにこれは受け入れられますか?mdドライバーは64ブロックの読み取りを試みますが、物理デバイスドライバーはそれを128ブロックの読み取りに変換しますか?または、RAIDは先のデバイスへの「パススルー」を先読みして、64ブロックの読み取りを行いますか? スケジューラにも同じ種類の質問がありますか?IOスケジューラの複数の層とそれらがどのように相互作用するかを心配する必要がありますか、または/ dev / md0が基礎となるスケジューラを効果的にオーバーライドしますか? この質問に答えようとする試みの中で、これを理解するのに役立つかもしれないスケジューラーとツールに関する興味深いデータを掘り下げました。 GoogleのLinux Disk Schedulerベンチマーク blktrace-ブロックデバイス上のI / Oトラフィックのトレースを生成します 関連するLinuxカーネルメーリングリストスレッド
28 linux  raid  lvm 

2
LVステータス:利用できません。利用可能にする方法は?
iSCSIターゲットを接続し、その上に物理ボリュームとボリュームグループを作成します。 次に、LVを作成し、 mkfs.ext3 /dev/vg00/vm そしてそれはすべてうまくいきます。 その後、ターゲットを切断します iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -u 別のLinuxサーバーにログインし、そこにターゲットを接続します iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -l そして私は得る: linux01:~ # lvdisplay --- Logical volume --- LV Name /dev/vg00/vm VG Name vg00 LV UUID NBNRGV-FkSR-ZNZ9-9AVk-chLQ-j5nc-RazeBw LV Write Access read/write LV Status NOT available LV Size …
27 linux  iscsi  lvm 

3
LVM、デバイスマッパー、ソフトウェアレイド、ブロックデバイスの先読み設定-何が勝ちますか?
私はこれについての真っ直ぐな答えを見つけようとしてきましたが、とらえどころのないことが証明されました。この質問とその答えは近いですが、私が望む詳細を本当に教えてくれません。私が知っていると思うことから始めましょう。 標準のブロックデバイスを使用して実行sudo blockdev --reportすると、次のような結果が得られます。 RO RA SSZ BSZ StartSec Size Device rw 256 512 4096 0 500107862016 /dev/sda rw 256 512 4096 2048 399999238144 /dev/sda1 rw 256 512 1024 781252606 1024 /dev/sda2 ここ--setraで、パーティションのいずれかを使用してそのデフォルトの256から128に変更すると、ブロックデバイス全体で次のようになります。 sudo blockdev --setra 128 /dev/sda1 sudo blockdev --report RO RA SSZ BSZ StartSec Size Device rw 128 …

7
LiveCDまたは再起動せずにFedoraでルートLVMパーティションのサイズを変更する方法
最近、ディスクイメージを20GBから50GBに増やした仮想マシンfdisk -lがあり、VMがこの新しいサイズを認識できることを確認しています。次に、ルートLVMパーティションのサイズを変更して、30GBを追加する必要があります。 LVMのサイズ変更に関する記事をいくつか 見つけましたが、ルートパーティションのサイズ変更をカバーする記事 はすべて、LiveCDから起動する必要があると主張しています。サーバーを停止せずにこれを行う方法はありますか?サーバーは重要なので、ダウンタイムを最小限に抑えたいと思います。 編集:の出力fdisk -l: [root@fedora-host ~]# sudo fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders, total 104857600 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes …
24 fedora  lvm 

4
KVM / qemu-イメージファイルなしでLVMボリュームを直接使用しますか?
この質問の言い方がよくわかりません(タイトルが下手です)ので、私がやろうとしていることの例を挙げましょう。 私の(古い)Xenホストでは、各ゲストにLVMファイルシステムを直接提示できます。これらのファイルシステムは実際にホスト上で作成およびフォーマットされ、直接パススルーされます。たとえば、個別のtmpパーティションとスワップパーティションを使用するホストの1つに対して、次のようにストレージを定義します。 disk = [ 'phy:/ dev / vg1 / guest1-swap、sda1、w'、 'phy:/ dev / vg1 / guest1-disk、sda2、w'、 'phy:/ dev / vg1 / guest1-tmp、sda3 、w '、 ] そのため、guest1-swapはスワップパーティションとしてフォーマットされ、guest1-diskとguest1-tmpはext4でフォーマットされ、ゲストの観点からは、/ dev / sdaの下に3つのフォーマットされたパーティションとして表示されます。 (これは多くの作業のように聞こえるかもしれませんが、ほとんどすべてを自動化する素晴らしいxen-toolsなどのプロビジョニングスクリプトがあります)。 これにより、いくつかの非常に便利な機能が提供されます。そのうち2つは、KVMの把握に特に興味があります。 ホストOSからゲストファイルシステムをマウントします。ゲストの実行中でも、いつでもゲストファイルシステムの読み取り専用マウントを実行できます。これには、ゲストの実行中に既存のボリュームのLVMスナップショットを作成できるという副次的な利点があります。このように、実行中にホストからすべてのゲストを集中的にバックアップできます。 オンラインボリュームのサイズ変更。ボリュームには標準のLinuxファイルシステムが含まれているため、lvextendとresize2fsの組み合わせを使用して、ゲストファイルシステムをオンラインで拡張できます。 現在、Xenホストを置き換えるKVMホストを設定しています。Xenのセットアップと同様に、私はLVMを利用して直接ファイルシステムアクセスを提供していますが、KVM / qemuは、LVMボリューム上であっても常にゲスト用のイメージファイルを作成するという点で動作が異なります。ゲストの観点からは、これはパーティション化されていないディスクと見なされ、パーティションラベルを適用してからパーティションとファイルシステムを作成するのはゲスト次第です。 ゲストの観点からは問題ありませんが、サーバー/管理の観点からは、説明したXenのセットアップよりも柔軟性がはるかに低いようです。私はまだKVMが初めてなので、(うまくいけば)何かが足りないかもしれません。 以前のバックアップソリューションをKVMホストに再実装しようとしたときにこの問題が発生し、ゲストのファイルシステムの1つをマウントしようとしたときにマウントコマンドが停止しました。それで、それに対処することは私の現在の懸念ですが、サイズ変更の問題も心配しました。それは、ある時点で問題が発生することも確信しているからです。 だから、ここに私の質問があります: Xenのセットアップで説明したように、kvm / qemuがLVMボリュームファイルシステムを直接使用する方法はありますか?管理にlibvirtを使用すると違いが生じます。 そうでない場合、KVMで同様のマウント/バックアップ機能を取得するにはどうすればよいですか?libguestfs w / FUSEを使用してこれを行うことについての議論を見てきましたが、それが本当に最良の選択肢ですか?可能な限り、ネイティブのファイルシステムマウントを使い続けたいと思います。 そうでない場合も、KVMでオンラインファイルシステムのサイズ変更を行うことは可能ですか?私はこれについていくつかの議論/方法を見つけましたが、答えはあちこちにあり、明確な解決策も間違いなく直接的な解決策もありません。 長い投稿で申し訳ありませんが、明確にしたかっただけです。役立つその他の情報を提供できるかどうかをお知らせください。議論を楽しみにしています。:-)

6
Linuxディスク上の単一の読み取り不能ブロックを簡単に修復するにはどうすればよいですか?
LinuxシステムでsyslogにSMARTエラーがスローされ始めました。私はそれを追跡し、問題はディスク上の単一ブロックであると信じています。その1つのブロックを再割り当てするディスクを簡単に取得するにはどうすればよいですか?その過程でどのファイルが破壊されたか知りたいのですが。(ディスクで1つのブロックに障害が発生した場合、他のブロックがそれに続く可能性が高いことを認識しています。適切な継続バックアップがあり、このディスクを機能させたいと考えています。) Webを検索すると、マウントされていないディスクでの手動プロセスを説明するBad block HOWTOが表示されます。複雑でエラーが発生しやすいようです。Linuxでこのプロセスを自動化するツールはありますか?私の他の唯一のオプションはメーカーの診断ツールですが、破壊されたものを報告せずに不良ブロックを壊すと思います。最悪の場合、ファイルシステムのメタデータである可能性があります。 問題のディスクはプライマリシステムパーティションです。ext3fsとLVMを使用します。syslogのエラーログとsmartctlの関連ビットを次に示します。 smartd[5226]: Device: /dev/hda, 1 Currently unreadable (pending) sectors Error 1 occurred at disk power-on lifetime: 17449 hours (727 days + 1 hours) ... Error: UNC at LBA = 0x00d39eee = 13868782 フル今回smartctlダンプありますペーストビンには。

11
LVM論理ボリュームのパーティションとそのタイプのリストのような「fdisk -l」
「fdisk -l」がドライブパーティションテーブルをリストし、各パーティションのパーティションID /タイプを表示する方法を知っていますか? LVM論理ボリュームのパーティションIDを取得する同様の方法はありますか? 編集:私は「lvs」を知っていますが、これは主に探しているものです(「fdisk -l」のような論理ボリュームのリストが表示されます...論理ボリュームのパーティションタイプ(「仮想パーティション」と考えたい)です。その情報は、右側の最後の2列にある「fdisk -l」のリストです(物理ディスクの「8e」など) LVMパーティション、またはLinux extの場合は「83」など)。 私が探しているツールはLVMの一部ではないかもしれません。パーティションに指定されたパーティションID /タイプを出力できる他のユーティリティだけでしょうか?
22 linux  partition  lvm 

11
LVMスナップショットをバックアップサーバーに同期する
多数のLinuxサーバーで多数のXen仮想マシンを実行しています。これらのVMは、/ dev / xenVG / SERVER001OSなどの行に沿ってデバイス名とともにディスクイメージをLinux LVMボリュームに保存します。これらのディスクイメージの定期的なバックアップを取り、必要に応じてVMを復元できるようにします(LVMデバイスは既に2つの物理マシン間でDRBDでミラーリングされています。 これについてどうすればいいですか?明らかに最初のステップはLVMデバイスのスナップショットを作成することですが、それから可能な限り最も効率的な方法でデータをバックアップサーバーに転送するにはどうすればよいですか?私は単にデバイス全体をコピーすることができます: dd if=/dev/xenVG/SERVER001OS | ssh administrator@backupserver "dd of=/mnt/largeDisk/SERVER001OS.img" ...しかし、それは多くの帯域幅を必要とします。リモートサーバー間でディスクブロック全体のコンテンツを同期するためのrsyncのようなツールはありますか?何かのようなもの: rsync /dev/xenVG/SERVER001OS backupServer:/mnt/largeDisk/SERVER001OS.img rsyncのマニュアルページを正しく理解している場合、上記のコマンドは実際には動作しません(動作しますか?)が、それは私が目指しているものを示しています。--devices rsyncオプションは、デバイスの内容ではなく、デバイス自体をコピーすることです。リモートサーバーと同期する前にVMイメージのローカルコピーを作成することは、ディスク領域がないためオプションではありません。 ブロックデバイスとリモートサーバー上のバックアップファイルを同期できる便利なユーティリティはありますか?必要に応じて作成できますが、既存のソリューションの方が良いでしょう。私のためにこれを行うrsyncオプションを見逃していませんか?

7
ディスクの大きなLVM(8 TB)のファイルシステムはどれですか?
Linuxサーバーには2 TBのディスクが多数ありますが、現在はすべてLVMにあり、約10 TBのスペースがあります。ext4パーティションでこのすべてのスペースを使用しますが、現在約8,8 TBのデータがあります。 問題は、多くの場合、ディスクにエラーが発生し、エラーが表示されたらすぐに交換する(つまり、古いディスクをddで新しいディスクにコピーしてから新しいディスクをサーバーに入れる)場合でも、多くの場合、約100 MBの破損データが表示されます。そのため、e2fsckは毎回おかしくなり、ext4ファイルシステムを再び正常な状態に戻すのに1週間かかることがよくあります。 質問は次のとおりです。LVMでファイルシステムとして使用することをお勧めしますか? または、代わりに私に何を勧めますか(私は本当にLVMは必要ありません)? 私のファイルシステムのプロファイル: 異なる合計サイズの多くのフォルダー(合計2 TB、合計100 MB) サイズが異なる200,000近くのファイル(3/4が約10 MB、1/4が100 MBから4 GBの間。現在、ext4パーティションが数日間完全に破壊されているため、ファイルの統計を取得できません) 読み取りは多いが書き込みは少ない フォールトトレランスが必要です(ディスク全体で1つのエラーが発生するのが好きではないため、mdadm RAIDの使用を停止しました。ディスクに障害が発生している場合があり、できるだけ早く交換しますが、破損したデータを取得できることを意味します私のファイルシステム) 主な問題は、ディスクの故障です。一部のファイルを失うことはできますが、すべてを同時に失うわけにはいきません。 ext4を使い続けている場合、より小さなファイルシステムを作成し、何らかの方法でそれらを「マージ」するのが最善であると聞きましたが、その方法はわかりません。 私はbtrfsがいいと聞いたが、データが複製されていない場合(mkfs.btrfs -d single?)、ディスクの一部(またはディスク全体)を失うことを管理する方法についての手がかりを見つけることができません。 質問に関するアドバイスは大歓迎です、事前に感謝します!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.