タグ付けされた質問 「lvm」

コンピューターストレージでは、論理ボリューム管理(LVM)は、大容量ストレージデバイスにスペースを割り当てる方法を提供します。これは、従来のパーティションスキームよりも柔軟性があります。

5
物理パーティションシステムをLVMに変更する方法
すべてのディスクをカバーする3つの物理パーティションを持つ、Debianを搭載したサーバーがあります。ブート、ルート、スワップです。次に、そのパーティションをLVMパーティションに置き換えます。最初はLVMでDebianをインストールする方法を知っていますが、この場合、プロバイダーがリモートアクセスを備えたサーバーとこの方法でインストールされたシステムを取得するため、最初にシステムをインストールできません。 ssh接続のみを使用してパーティションを変更し、一時データを配置する他のリモートサーバーを変更するにはどうすればよいですか?
10 linux  lvm 

1
64KBブロックサイズでXFSからファイルを取得する
私は、RAID 1にあった、完全に機能し、破損しておらず、暗号化されていない2つのNASドライブの1つからファイルを回復する使命を帯びていました。NASはPatriot Javelin S4でした(私の調査でわかったように)Promise FasttrackフェイクRAIDコントローラを使用します。 これに関する情報は非常に少ないため、同じ状況のグーグルにとって、このNASに関するいくつかの事実があります。 RAIDコントローラー:Promise FastTrack(FakeRaid) ボリュームシステム:LVM2 ファイルシステム:64kbブロックサイズ(65536バイト)のXFS Arch:800MHz AMCC PowerPCプロセッサ、256MB RAM(Matthewの研究に感謝) これを行ったとき、私はWindows 10とMacOSコンピュータしか持っていませんでした。LVM2ボリュームにXFSをマウントできるソフトウェアは見つかりませんでした(1つを例外として、以下で詳しく説明します)。私は古いネットブックAcer Aspire Oneを取り出し、それにpuppy linux(具体的にはlxpupフレーバー)をインストールする必要がありました。 子犬のLinuxでは、と呼ばれるツールを使用してこのファイルシステムをマウントできましたdmraid。このツールには、Promise FastTrackのIDであるpdcボリュームをマウントする方法があります。なんとかそれをマウントしているいくつかのフープを飛び越えることができたら、私は実際のXFSファイルシステムにアクセスできるようになり、そして残念なことに、それは64kbのブロックサイズであることがわかりました。 ここで、「read xfs 64kb block size」のようなものをググって始めて、どこにも行きませんでした。「カーネルにパッチを適用しない限り、Linuxは4kbを超えるブロックサイズを読み取ることができません」と答えるのはほんのわずかです。カーネルにパッチを当てる方法がわかりませんし、これを可能にするエミュレーションもないので困惑しています。 Win / Macでこのパーティションを読み取ることができないアプリの1つの例外について言及しました。その例外はufsexplorerでした。100ドルのアプリで、シ​​ームレスにファイルを表示できました。私はそれが機能することを証明するいくつかのファイルをコピーしましたが、試用版では小さなファイルしかコピーできません。 64kbのxfsを読み取るのに役立つような複雑さのレベルにある無料のオープンソースツールはありません。 私の質問は、そのようなツールを誰かが知っていますか?1つ以上のツール、カーネルパッチ、または他の何か(無料)を使用してデータを取得する方法についての具体的な指示があれば、高く評価されます。 もう1つのポイント:これらのドライブのローカルイメージを作成する必要がないことを強く望みます(それが唯一の方法でない限り)。結局のところ、それは2TBのデータであり、私はこれほどのスペースを持っていないかもしれません。 PS 64 kbのxfsを読み取ることができる既知のLinuxがAcerにインストールできる場合、それも実行可能なソリューションです。 更新1:https://www.cgsecurity.org/wiki/TestDiskについて学んだところです。一撃の価値があるかもしれません。試してみる時間があったらまた報告します。 Update 2:TestDiskはXFSパーティションの存在を認識しているようですが、そこに進む方法がわかりません。ファイルを抽出する方法がわからないので、今はそれを放棄し、マシューの答えでqemuアプローチを試しました。

5
LVMミラーリングVS RAID1
LVMミラーリングについて少し学んだので、私は柔軟性を獲得するために使用している現在のRAID-1スキームを置き換えることを考えました。 問題は、インターネットで見つけたものによると、LVMは次のとおりです。 少なくとも読み取りでは、RAID-1よりも遅くなります(単一のボリュームのみが読み取りに使用されるため)。 電源の中断には依存せず、データ損失を防ぐためにディスクキャッシュを無効にする必要があります。 http://www.joshbryan.com/blog/2008/01/02/lvm2-mirrors-vs-md-raid-1/ また、少なくとも私が読んだいくつかのセットアップガイド(http://www.tcpdump.com/kb/os/linux/lvm-mirroring/intro.html)では、実際にはLVMログを保存するために3番目のディスクが必要なようです。これにより、2台のディスクのインストールではセットアップを完全に使用できなくなり、使用するミラーディスクの量を多くのディスクで減らします。 誰もが上記の事実についてコメントし、LVMミラーリングを使用した彼の経験を教えていただけますか? ありがとう。
9 linux  raid  lvm  mirroring 

5
Linuxサーバーのシンプロビジョニングのベストプラクティス(VMware)
私は約20台のLinuxマシンをセットアップしており、それぞれに約30〜150ギガバイトの顧客データがあります。おそらく、一部のマシンではデータのサイズが他のマシンより大幅に速くなります。これらは、VMware vSphereクラスター上の仮想マシンです。ディスクイメージはSANシステムに保存されます。 個々のマシンを簡単に拡張できるようにしながら、ディスク領域を節約するソリューションを見つけようとしています。 理論的には、マシンごとに大きなディスクを作成し、シンプロビジョニングを使用します。各ディスクは必要に応じて拡大します。ただし、データがわずか50 GBで、書き込み回数が非常に少ない500 GBのext3ファイルシステムでも、ディスクイメージが容易に増加します。時間の経過とともに250 GB。それとも私はここで何か間違っているのですか?(私がGoogleでこの件についてほとんど何も見つけなかったのには驚きました。ところで、serverfault.comにはシンプロビジョニングタグさえありません。) 現在、私は大きなシンプロビジョニングされたディスクを作成することを計画していますが、それらに小さなLVMボリュームを使用しています。例:500 GBディスク上の100 GBボリューム。そうすれば、オンラインでも、必要に応じてLVMボリュームとファイルシステムのサイズをより簡単に拡張できます。 今実際の質問のために: これを行うより良い方法はありますか?(つまり、ダウンタイムなしで必要に応じてデータサイズを拡大するため。) 可能な解決策は次のとおりです。 同じスポットを何度も占有しようとするシンプロビジョニング対応のファイルシステムを使用しているため、画像サイズが大きくなりません。 パーティションの空き領域を再利用する簡単な方法を見つける(再間引き?) 他に何か? おまけの質問:現在の計画に同意する場合、ディスク(pvcreate /dev/sdX1とpvcreate /dev/sdX)にパーティションを作成することをお勧めしますか?パーティションのないrawディスクを使用することは慣習に反すると思いますが、必要に応じてディスクを拡張することは少し簡単になります。これはただの好みの問題ですよね?
9 linux  lvm 

1
Ubuntu Server 18.04LTSデフォルトのLVを拡張できませんか?
Ubuntu Server 18.04を最近インストールしたところ、/にマウントされたLVが4GBしか作成されていないようです。ただし、ボリュームグループは予想どおり160GBです。 しかし、グループに空き容量があるように見えても、LVを拡張しようとすると、ディスク容量不足のメッセージが表示されます。 tom@git:~$ sudo pvs PV VG Fmt Attr PSize PFree /dev/vda3 ubuntu-vg lvm2 a-- <159.00g <155.00g tom@git:~$ sudo vgs VG #PV #LV #SN Attr VSize VFree ubuntu-vg 1 1 0 wz--n- <159.00g <155.00g tom@git:~$ sudo lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync …
8 ubuntu  lvm  extend 

2
Grub2は、起動できないサーバーで物理ボリュームpv0が見つからないことを報告します
最初にlvmを使用してubuntuサーバー(11.10 amd64)をインストールしましたが、その概念を完全にはマスターしていません。これが、2つのディスクのパーティションをめちゃくちゃにした原因の1つだと思います(私には思えます)。Ubuntuを起動するために最初からgrub2を使用してすべてをインストールしましたが、後でUbuntuサーバー12.04に更新しましたが、問題ありません。 ここに状況があります: 今日のところ、私はまったく起動できず、grubオプションの直前にあるように見えるものに進化がありません(編集:Pavel Aの精度)。 サーバーインストールliveCDを使用して、壊れたシステムをRescueオプションで起動できます。 ネットワークアクセスをセットアップしましたが、/runフォルダーがないようです(関連しているかどうかはわかりませんが、一部のフォーラムでは異常と思われます)。 私が作成したデバイスマップは次のとおりです。 VGAは含まsda1[Linuxパーティション]をsda2、sda3[ /]とsda5(後者は同様と思われるsda3同じ記述子) VGBが含まれsdc1、sdc2[ /boot]とsdc3[ /home] (2つは同じPEまたはLEを持っていませんが、最終的にはすべてを同じVGに入れたいです) ブート環境で私が最後に行ったのは、ブートパーティションから古いカーネルを(きれいに)削除することでした(236MB大、99%使用済み)。 私が走ったgrub-install(マウントされた後にブート)が、さまざまなエラーを得ました: 適合しない/dev/sdaため、インストールできませんcore.img(最初のパーティションは32から始まります) 出力grub-installに/dev/sdc展示error physical volume pv0 not found 私はgrub-install直接にしようとしました/dev/sda5、明らかにエラーはありませんでしたが、ブートも成功しませんでした 私は[serverfaultの]ここで見て:/インストールプロービング時にGRUB2は、物理ボリュームPV0を報告見つからない 私はここに見えた[Ubuntuのフォーラム]:解決しよう]のLiveCD&修正GRUB2でカーネルをインストールし 、私はここに見えた[Ubuntuのヘルプ]:固定壊れたシステム 私はここに見えました[ubuntu forums]:[解決しよう] 10.10 Maverick-Grubが私のWindowsパーティションを認識しない 私がやったことは何もスタックブートの状況に変化しませんでした(これを定義することはできません。何分も何分間もハングするだけです)。 重要な詳細は省略しないでください。 特にgrubのインストールが機能しない場合、私はもう何をすべきかわかりません。データは失われていませんが、運用(-っぽい)サーバー(つまり完全に個人用)だったので、ミラーの必要性を強く感じています(すでにバックアップを設定していますが、サーバーに:p)。 とにかく、あなたの天才がアイデアやリードを持っていたら、それは大きな助けになるでしょう。 ありがとうございました バレンティン 編集:tail /var/log/syslog出力を生成しない(空白)、新しいsyslogが作成されず、確認できません Edit2:ブート修復CD(Ubuntu Secure Remixバージョン)を使用して、ブートの状態に関する次のレポートを生成しました:http : //paste.ubuntu.com/1620777

3
debian 6のpreseedingは「ディスクに変更を書き込んでLVMを設定しますか?」
私はdebian 6.0.5ネットインストール用にLVMを設定するエキスパートレシピを使用しようとしています。質問はしたくないのですが、「ディスクに変更を書き込んでLVMを構成しますか?」 これが私のpreseed.cfgの一部です。 d-i partman-auto/disk string /dev/sda d-i partman-auto/method string lvm d-i partman-auto/purge_lvm_from_device boolean true d-i partman-auto/choose_recipe select boot-root d-i partman-auto-lvm/new_vg_name string vg00 d-i partman-auto/expert_recipe string \ boot-root :: \ 128 50 128 ext2 \ $primary{ } $bootable{ } \ method{ format } format{ } \ use_filesystem{ } filesystem{ ext2 …
8 debian  lvm  preseed 

1
LVMでDRBDディスクのサイズを変更する方法は?
これは私のdrbd設定です resource mysql { protocol C; floating 10.100.101.1:7788 { device /dev/drbd0; disk /dev/VolGroup00/LogVol02; meta-disk internal; } floating 10.100.101.2:7788 { device /dev/drbd0; disk /dev/VolGroup01/LogVol02; meta-disk internal; } } 両方のノードのLVMのディスクを50Gに設定しました。両方のノードのLVMでディスクを増やしました+ 4G(現在は合計54G) でも走ろうとすると [root@db1 ~]# resize2fs /dev/VolGroup00/LogVol02 resize2fs 1.39 (29-May-2006) resize2fs: Device or resource busy while trying to open /dev/VolGroup00/LogVol02 Couldn't find valid …
8 lvm  drbd 

1
HP DL380 G7 + Smart Array P410i + sysbench-> RAID 10のパフォーマンスが低い
IO使用率が低い実行中のシステムがあります。 HP DL380G7(24 GB RAM) Smartアレイp410i、512 MBのバタリーバックアップライトキャッシュ RAID10のSAS 10k rpm 146GBドライブx 6 Debian Squeze linux、ext4 + LVM、hpacucliがインストールされている iostat(cciss / c0d1 = raid10アレイ、dm-7 =テスト用60G lvmパーティション): デバイス:rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz await svctm%util cciss / c0d0 0,00 101,20 0,00 …

4
Ubuntu 11.10では、起動時にパスフレーズを1つだけ入力することで、LUKS / LVMで暗号化された2つのハードディスクを復号化できますか?
ここに私が持っている設定:-2つのハードドライブ、-最初のものはLUKSとLVMを使用して暗号化されています。暗号化されたボリュームグループに2台目のハードドライブを追加したいと思います。インストールして暗号化しました。しかし、起動時に、両方のハードドライブを復号化するために2つのパスフレーズを入力する必要があります。 1つだけを使用する方法はありませんか?
8 ubuntu  lvm  luks 

3
ユーザーがデータを回復するためのスナップショット機能を提供するファイルシステムはどれですか。
私はLinuxを若者に教えるプロジェクトに取り組んでいます。彼らがホームディレクトリ内のアイテムを削除または破損する傾向があることを知っているため、優れたスナップショットオプションを探しています。私たちは、主要なストレージベンダーから入手できる便利なツールにアクセスできなくなり、ファイルシステムレベルでの解決策を見つけたいと考えています。 私はbtrfsについて多くを読みましたが、ほとんど経験がありません。LVMの使用経験はありますが、そのスナップショット機能に慣れていません。ファイルシステムまたは別のいずれかに、オンデマンドまたはスケジュールされたスナップショットを作成するオプションがありますか?次に、これらのスナップショットを、各ホームフォルダーの.snapshotフォルダーのようにrootなしで常に使用できるようにしますか? 考えてみれば、このソリューションにより、ユーザーは必要に応じて24時間から48時間以内にバックアップを自己復元できます。システム用の別のバックアッププロセスと、よりグローバルなバックアップがあります。しかし、私たちはこのプロセスが「間違い」をするだけの学生によって使用されることを望んでいません。

2
lvmを使用する場合、fdiskパーティションタイプは重要ですか?
いくつかのLVMボリュームを継承しましたが、fdiskがボリュームグループを構成するディスクを8e(Linux LVM)ではなくパーティションタイプ83(Linux)として報告していることに気付きました。これは問題ですか?fdiskパーティションタイプはどのくらい重要ですか?それらは何かに影響を及ぼしますか、それとも便宜上のラベルにすぎませんか?ご協力いただきありがとうございます。
8 linux  partition  lvm  fdisk 

1
md(mdadm)の代わりにdmraidを使用してソフトウェアRAID-1およびRAID-1 + 0ボリュームを作成できますか?
SSDとTRIMに関する関連する質問(参照:Linuxでext4 + LVM +ソフトウェアRAIDでSSD TRIM(破棄)を動作させることは可能ですか? 通常、mdを使用して(mdadmを介して)RAID-1ボリュームを作成し、次にLVMを使用してボリュームグループを作成してから、選択したファイルシステムでフォーマットしました(最近はext4)。私たちは何年もこれを行ってきましたが、GoogleとServerFaultの検索では、これがボリューム管理でソフトウェアRAIDを行う最も一般的な方法であることを確認しているようです。 Googleの検索では、dmraidがいわゆる「fakeRAID」構成で使用されているように思われます。コントローラーにはRAID BIOSの形式のハードウェア「ヘルプ」があり、これはありません(使用したくない)。 -完全なソフトウェアソリューションが必要です)。 SSDでTRIMを使用したいので、mdは(まだ?)をサポートしていないようなので、mdの代わりにdmraidを使用してRAID-1(およびRAID-1)を作成できるかどうか疑問に思っています。 +0)ソフトウェアのボリューム、ハードウェアサポートなし(つまり、ダムSATA / SASバスに接続されているだけ)?

4
md / LVM / dm-cryptで4kドライブを使用する
4kドライブを8の倍数のセクターに揃える必要があることはわかっていますが、md-RAID / LVM / dm-cryptはどうなりますか?ドライブが4kであることをこれらのレイヤーに伝えるにはどうすればよいですか?4Kセクターサイズを尊重しない場合、パーティションの配置は役に立ちません。LVM / md / crypto-layersをどのように揃えますか?ありがとう。

5
Linux mdとLVMのパフォーマンス
NASを調整し、openfilerを実行していて、RAID 5の4つのWD RE3ドライブからの読み取りパフォーマンスが比較的低いのはなぜかと思います。 編集:私はバッファリングされたディスクの読み取り速度がキャッシュされた速度ではないことに注意してください 編集:2つの出力セットがあることを明確にするために書式を変更しました。 メタデバイスでhdparmを実行すると、期待どおりのパフォーマンスレベルが得られます。ボリュームに落とすと、速度は3分の1になります。 なぜ誰か何か考えはありますか?LVMはそんなに悪いのですか? ディーン メタデバイス/ dev / md0の結果 [root @ nas2 etc]#hdparm -tT / dev / md0 / dev / md0: キャッシュされた読み取りのタイミング:2.00秒で4636 MB = 2318.96 MB /秒 バッファリングされたディスク読み取りのタイミング:3.01秒で524 MB = 174.04 MB /秒 ボリュームグループ/ dev / mapper / vg1-vol1の結果 [root @ nas2 etc]#hdparm -tT / dev …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.