タグ付けされた質問 「lvm」

Linuxカーネル用の論理ボリュームマネージャーは、ディスクドライブや同様の大容量記憶装置、特に大容量のものを管理します。「ボリューム」は、ディスクドライブまたはそのパーティションを指します。

1
LVM:PVとLV破損の可能性からの回復をどのように試みるべきですか?
これは私の自宅のファイル保存設定でした。 RAID設定は冗長性を目的としているため、バックアップはありません。私は何が起こったのか説明せず、代金を払っています。セットアップ: Ubuntu 16.04 mdadm(4 x 2 TB)を使用した4ディスクRAID 5アレイ:/ dev / md0 アレイ上では、LVMによって管理されるPVとLV。 vg0という名前の論理ボリューム上のXFSファイルシステム。 / etcと/ bootを含むLinuxホストは別のディスクにインストールされており、完全にアクセス可能です(したがって/ etc / lvm / archiveにアクセスできます)。 RAIDアレイは純粋にファイルストレージです。ブートプロセスは/ etc / fstabのエントリ以外には依存しません。 どういうわけか私が理解するのに苦労していたFreeDOSインストーラから起動しました。覚えているわけではありませんが、このボリュームを再分割するように言ったのかもしれません。いずれにせよ、私がLinux(Ubuntu 16.04)を再起動したとき、私はrootユーザーとしてリカバリモードのプロンプトに落ちました。 / etc / fstabに定義されているボリュームグループのUUIDをマウントできませんでした。 このRAIDアレイを最初にセットアップしてから、LVMの機能を完全に忘れたか、ボリュームの作成にLVMを使用したことさえあるので、十分な長さがあります。 (10 - 12年、その間に時々ハードディスクを交換し、アレイのサイズを変更することもありました。)それで、最初にtestdiskを使おうとしました。 1 ]をクリックしてパーティション情報を見つけて復元します。これは決してうまくいきませんでした、パーティションは常に不正確なサイズ(4.5TBの代わりに524Gb)であり、そして決して「物理的セクター境界」上にありませんでした。パーティションを完全に復元するための魔法の組み合わせがあると考えて、さまざまなジオメトリを試しました。これはfdiskに従ったディスクの現在のステータスです: $ sudo fdisk -l /dev/md0 GPT PMBR size mismatch (1098853631 != 200894463) …

1
データを失うことなくLVM / EXT4をZFSに変換
2 x 3TBドライブを搭載したホームメディアサーバーがあります。現在mdraid(1)、LVMおよびEXT4を使用して設定されています。セットアップはncurses Ubuntuサーバインストーラを使って行われました。 ゴール セットアップをZFS(RAIDZ)を使用するように変換し、3台目の3TBドライブを追加します。オンザフライでの圧縮と重複排除を有効にしたいです。変換はUbuntuとすべてのパッケージの再インストールを必要とするべきではありません。データの損失があってはいけません(もちろんディスクがクラッシュしない限り)。 どうやってこれをやるの? ボーナスの質問ですが、これはbtrfsを使用したほうがよいのですが、1つのディスクでアレイを初期化し、データをコピーしてから2つ目のディスクをztrfsではなくbtrfsで追加できます。 私の/ proc / mdstat: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md4 : active raid1 sdb2[1] sda2[0] 2930070069 blocks super 1.2 [2/2] [UU] unused devices: <none> 私のPV - V Scanning for physical volume names PV VG Fmt Attr PSize …
3 raid  lvm  mdadm  zfs 

0
冗長性:LVM + mdadmまたはLVM internal RAID
タスクは、仮想マシンイメージ用のLVMストレージを作成することです。したがって、いずれの場合でもLVMが使用されます。 LVMが冗長性を提供する2つの方法があります。 ブロックミラーリング lvcreate -m 1 --mirrorlog mirrored -n logical_volume -L 50G vg0 内部RAIDメカニズム lvcreate --type=raid1 -n logical_volume -L 50G vg0 2番目の方法では、読み取りパフォーマンスが向上します。 別の方法として、mdadmでraid1を作成し、Linux Soft RaidデバイスをLVMの物理ボリュームとして使用できます。 どちらの方が良いのですか?

0
LUKS UEFI上のUbuntu LVM
UEFIモードでLUKSのLVMにUbuntuをインストールしたい。UEFIパーティション、/bootシステム用の別の暗号化パーティション、そしてシステム用の暗号化パーティション。 私の質問は: どのようにフックを追加できinitramfsますか? Arch Linuxで編集するのはとても簡単mkinitcpioです。 しかし、Ubuntuでそれを行う方法はわかりません。

1
LVMボリュームのサイズ変更/移動
CentOS 6.2を実行しているサーバーマシンがあります。 LVMマッピングを使用して設定されているのはデフォルトであるため、問題ありません。 私は今そこに500GBドライブを持っています、そして442GBが/ homeにマウントされている間、54GBはルートディレクトリにあります これはサーバーなので、共有する必要があるすべてのファイルを/ home / sharedFilesに配置し始めたところ、正常に機能しています。しかし、私は少し問題に遭遇しました...または私が問題になると思うもの。 私は最近、実験のためにKVM経由でいくつかのマシンをインストールし、メインシステムを変更するのではなく設定変更を行うためのテストマシンを用意しています。想像するかもしれませんが、これらのマシンに10gbの仮想ディスクを割り当てることは私のスペースを浪費しています。私は自分のファイルだけではなくOSレベルのものだと考えているので、これらを/ homeに入れたくはありません。 LVMボリュームを移動/拡張/縮小する方法はありますか?私は実際に私のメインハードドライブの大部分をOSのもの、Webサーバファイル、そして冗長にする必要のない他のストレージ(利便性のためにそこに保管されるLinuxディストリビューション用メディアなど)に分割したい。 RAIDアレイは私の個人データを処理します。このような設定は、システムを長期間オフラインにしなくても可能ですか。 編集:実際には、/ homeにKVMイメージを配置しようとしましたができませんでした。これが私の唯一の選択肢です。

2
/ homeパーティションを拡張する
現在すべてのバックアップを保存しています /home。私はマシンに新しい2 TBのディスクを追加しました。 現在 /home 2 TB(おそらくLVMあり)でパーティション化します。しかし、私は私のデータを失くしたくありません。 /home 明白な理由のために。 これを行うための最良の方法は何でしょうか。 2 TBのディスクに新しいLVMグループを作成してから、古いLVMグループを追加します。 /home それにパーティション?それとも他の方法? 編集する 私の現在のパーティションテーブル: Filesystem Size Used Avail Use% Mounted on /dev/sda1 39G 11G 27G 28% / /dev/sda2 99M 31M 64M 33% /boot /dev/sda5 2.0G 68M 1.9G 4% /tmp /dev/sda6 876G 474G 357G 58% /home

3
Linuxのディスク使用量とディスクサイズが一致しない[Fedora 11]
Xen VMで問題が発生しています(ルートとして実行)dfとbaobabはディスクの94%が使用されていることに同意しています(28Gのうち25G)が、duは合計ディスク使用率のほんの一部(3.3G)のみをカウントします。 サーバーには、/にマウントされた28Gパーティションという単純なLVM構成があります。lvdisplayとvgdisplayは両方とも、ボリューム全体が考慮されていることを示しています。 ほぼ22Gのスペースが不足していますか? df Output ========= Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vg_dns-lv_root 29241444 25924244 1831788 94% / df -h Output ============ Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_dns-lv_root 28G 25G 1.8G 94% / `du --max-depth=1 -h` Output ============================ 96K ./tmp 128K ./home 23M ./root ... 94M …

0
LVM:ストライプボリューム上のlvextend
これは「スタック」システムでの私の最初の質問であり、...それはおそらく非常にばかげています。 特に私は答えを知っていると思うので、それは重要なデータを備えた本番システムに関するものなので、私は確信し、少し確認したいと思います。 だから、状況。 ストレージアレイに接続されているストレージサーバーがあります(プリンシパルユニットと拡張機能で構成されたDDNストレージアレイです)。サーバー上のデータボリュームはLVMボリュームです。 実際には、6つの物理ボリュームに基づいています。 奇妙なストライプ構成があることに気付いたとき、私は少し驚きました: [root ~]# lvs --segments LV VG Attr #Str Type SSize data ddn -wi-ao-- 4 striped 114.00t data ddn -wi-ao-- 2 striped 57.11t ボリュームは私が作成したものではなく、この構成の理由についてはわかりません。2つの説明があるかもしれません: a)最初に、ボリュームは4 PVのみで作成されました。他の2つは後で追加されました。 b)最初の4つのPVはストレージアレイの主要ユニットにあり、他の2つのPVは拡張にあります。 いずれにしても、実際にはかなりうまく機能します。 ここで、LVMに新しいボリュームを追加したいと思います。追加するボリュームは1つしかなく、2つのボリュームを追加することはできません。 私は成功しなかったpvcreateとvgextend。 しかし、私がやろうとすると lvextend /dev/ddn/data -l+100%FREE ストライプについて聞かれます。私は少し混乱しています。 示すべきですか lvextend /dev/ddn/data -l+100%FREE --stripes 3 ボリュームをデータのグループに追加しようとする ddn -wi-ao-- 2ストライプ57.11t …

2
ストライプなしのLVM
LVMを使用して、複数のドライブにまたがるパーティションを作成します。1つのドライブに障害が発生すると、アレイ内のすべてのデータが失われるというマイナス面があることを知っています。LVMにデータをストライピングさせないようにすることはできますか。また、ドライブに障害が発生した場合、そのドライブの一部が障害ドライブにあるデータのみが失われますか?だから理論的には、故障したドライブにあるデータのみを失う
1 linux  lvm 

1
論理ボリュームを新しく追加した物理ボリュームに移行できません
私は61GBまでいっぱいの論理ボリュームに91GBのパーティションを追加しました。今、私は外付けハードドライブを得て、論理ボリュームにそれぞれ43GBと26GBのパーティションをいくつか追加しました。 私は今、これらの新しいPVにデータを移動し、元の91GBのパーティションを再分割したいです。私は始めました pvmove -v /dev/sdxx しかしそれは不十分な空き容量を言います。エクステントが足りません。私は混乱しています。私のvgdisplayは割り当てられた91.23GBとして私を示しています。どうして? これが私のハードディスクのパーティションテーブルです: /dev/sda5 91G /dev/sda1 58G / homeを物理ボリュームとして/ dev / sda5を論理ボリュームとして使用します。 私は今、次のように外付けハードドライブのパーティションテーブルがあります。 /dev/sdb1 43G /dev/sdb2 26G /dev/sdb3 80G df -h /home を与えます: Filesystem Size Used Avail Use% Mounted on /dev/mapper/home-home--lvm 91G 61G 343M 100% /home / homeから/ dev / sda5を削除し、それを再分割したいのです。 / dev / sdb1と/ dev …
ubuntu  lvm 

0
pvdisplay / pvscanで古いディスクの物理ボリュームが表示されない
今日、新しいディスクにインストールしてFC18システムをFC19にアップグレードしました。 ブートしたら、以前のブートディスク論理ボリュームをマウントできると予想していましたが、物理ボリュームはpvscan / pvdisplayに表示されません。両方の物理ディスクとfdiskが表示されます。 古いディスクの物理ボリュームをpvscan / pvdisplayから見えるようにするにはどうすればよいですか? 昨日、disk1(LVM)からブートされ、disk2(古いFC17のLVM)をマウントすることもできました。 今日、disk1を切断し、FC19をdisk2にインストールして、新しいファイルシステム/ボリュームを作成しました。 次に、両方のディスクを再接続し、disk2から起動しました。 fdisk -lを使用すると、古いディスク/ dev / sdaと以前のボリュームを含むパーティション/ dev / sda3が表示されます。 ただし、pvdisplay / pvscanは新しいディスクボリュームのみを表示します。 提案をありがとう


0
仮想マシンのLVMの問題
仮想マシン(fedora)があり、ssh経由で接続しています。このVMには、300Gボリュームの仮想ディスクが割り当てられていますが、LVM経由でVMに追加できません。ステップバイステップで助けてもらえますか?ssh接続しかありません fdisk -lの出力は次のとおりです。 [root@localhost /]# fdisk -l Disk /dev/sda: 300 GiB, 322122547200 bytes, 629145600 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0xe27efc6d Device Boot Start End …
linux  fedora  lvm 

1
Debianでlvmにraidを設定する方法は?
lvmがインストールされた3つのハードディスクとlvmで作成された2つの論理ボリュームがあります。これら2つの論理ボリュームでレイドを行いたいです。出来ますか?このスキームのように: /etc /var /home --------------- raid --------------- lvm --------------- sda1 sda2 sda3
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.