タグ付けされた質問 「raid1」

1
マウント:不明なファイルシステムタイプ 'linux_raid_member'
Suse Linux 12.1を使用していますが、単一のRAID 1ディスクをマウントして、その中のファイルを探索しようとしています。ただし、マウントする場合: # mount /dev/sdc1 /mnt/test mount: unknown filesystem type 'linux_raid_member' 私は周りを読み始め、多くの人がファイルシステムタイプを強制することを勧めました # mount -t ext4 /dev/sdc1 /mnt/test mount: /dev/sdc1 already mounted or /mnt/test busy しようとするとき umount /dev/sdc1 umount: /dev/sdc1: not mounted 誰かがアドバイスを提供できますか? ESXIサーバーをインストールしたマシンを実行していますが、これは仮想ディスクです。ただし、このディスクは他のマシンでは使用されないため、これは再生されません。 かっこいい!

6
同様の障害時間の可能性を減らすために、新しいRAID 1ペアの1つのディスクを「実行」する必要がありますか?
2つの新しい4TBハードドライブのRAID1アレイをセットアップしています。 以前にどこかで聞いたことがありますが、新しいハードドライブのRAID1アレイを同時に購入すると、同じような時点で障害が発生する可能性が高くなります。 そのため、短時間で両方が故障する可能性を減らすために、ハードドライブの1つを一定期間(数週間程度)単独で使用することを検討しています。(未使用のドライブはドロワーで切断されたままになります) これは合理的なアプローチのように見えますか、それとも単に時間を無駄にしているだけですか?

6
RAID 1 + 6がより一般的なレイアウトではないのはなぜですか?
ネストされたRAIDレベル1 + 5または1 + 6がほとんど聞こえないのはなぜですか?ネストされたRAIDレベルWikipediaの記事は現在、彼らのセクションが含まれていません。特にRAID 1 + 0トリプルミラーリングと比較した場合、RAID 1 + 0よりも一般的ではない理由はわかりません。 ドライブ容量がパフォーマンスや信頼性よりも速く増加しているため、再構築時間がますます問題になっていることは明らかです。RAID 1はより迅速に再構築され、RAID 1ペアのRAID 0アレイは問題を回避するが、確かにRAID 1ペアのRAID 5または6アレイも回避すると言われています。少なくとも、RAID 1 + 0の一般的な代替品になると期待しています。 16個の1TBドライブの場合、バックアップに頼る素朴な確率の計算は次のとおりです。つまり、ドライブが確率で独立しているという単純な仮定で: RAID | storage | cumulative probabilities of resorting to backup /m 1+0 | 8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000 1+5 | 7TB …
17 raid  raid1  raid6 

4
ローエンドハードウェアRAIDとソフトウェアRAID [非公開]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 去年閉鎖されました。 古いPCでローエンドの6TB RAID 1アーカイブを構築したい。 MB: Intel d2500hn 64bit CPU: Intel Atom D2500 RAM: 4GB DDR3 533 MHz PSU: Chinese 500W NO GPU 1x Ethernet 1Gbps 2x SATA2 ports 1x PCI port 4x USB 2.0 LinuxでRAID1アーカイブを構築したい(CentOS 7と思うので、必要なものをすべてインストールする、ownCloudなどと思う)、ホームローカルネットワークで使用します。 10〜20ドルのRAID PCIコントローラーまたはソフトウェアRAIDのどちらが良いですか? ソフトウェアRAIDの方が優れている場合、CentOSではどちらを選択すればよいですか?外部USBにシステムを配置し、コネクタで2つのディスクを使用する方が良いでしょうか、それともシステムを1つのディスクに配置してからRAIDを作成する必要がありますか? 3ディスクRAID 5を実行する場合、ハードウェアRAID PCIまたは単にPCI SATAコネクタを選択する必要がありますか?

3
mdadmでRAID1アレイのサイズを変更する方法は?
Ubuntu 11.04(カーネル2.6.38-11)を実行しています。2x160GBを2x500GBドライブに交換しました。それらはRAID1として構成されます。 パーティションテーブルは適切なサイズを示しています。sfdiskは次のとおりです。 # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, size= 0, Id= 0 そしてfdisk: # fdisk -l /dev/sdb Disk /dev/sdb: …

11
RAID5はRAID1より堅牢です
古いハードウェアRAID5アレイをLinuxソフトウェアRAID1アレイに置き換えようとしています。私は友人と話していましたが、彼はRAID5はRAID1より堅牢であると主張しました。 彼の主張は、RAID5では、すべてのドライブが正しいデータを返していることを確認するために、読み取り時にパリティデータが読み取られることでした。さらに、RAID1ではこのようなチェックが行われないため、ドライブで発生するRAID1エラーは気付かれないと主張しました。 これがどのように当てはまるかはわかりますが、問題のRAIDシステムがどのように実装されているかにかかっていることもわかります。確かに、RAID5システムは読み取り時にパリティデータを読み取って確認する必要はなく、RAID1システムは読み取り時にすべてのドライブから同じように簡単に読み取って、すべてが同じデータを保持していることを確認できるため、同じレベルの堅牢性(対応するパフォーマンスの低下を伴う)。 問題は、実世界のRAID5 / RAID1システムは実際に何をしているのかということです。RAID5システムは読み取り時にパリティデータをチェックしますか?すべてのドライブから読み取り、読み取り時にデータを比較するRAID1システムはありますか?

1
HP SmartアレイP410:RAID10をRAID1に変換するか、RAID10からディスクを取り外します
146GBディスクの2つのRAID10アレイを持つサーバーがあります。146GBディスクの1つのRAID10アレイを2つの2TBディスクのRAID1で置き換えようとしています。空きポートがないため、交換するアレイから2つのディスクを取り出しました。これで私のレイドのステータスは次のようになります。 # /opt/hp/hpssacli/bin/hpssacli ctrl all show config Smart Array P400 in Slot 1 array A (SAS, Unused Space: 0 MB) logicaldrive 1 (273.4 GB, RAID 1+0, Interim Recovery Mode) physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 146 GB, Failed) physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 146 GB, Failed) physicaldrive …

1
64KBブロックサイズでXFSからファイルを取得する
私は、RAID 1にあった、完全に機能し、破損しておらず、暗号化されていない2つのNASドライブの1つからファイルを回復する使命を帯びていました。NASはPatriot Javelin S4でした(私の調査でわかったように)Promise FasttrackフェイクRAIDコントローラを使用します。 これに関する情報は非常に少ないため、同じ状況のグーグルにとって、このNASに関するいくつかの事実があります。 RAIDコントローラー:Promise FastTrack(FakeRaid) ボリュームシステム:LVM2 ファイルシステム:64kbブロックサイズ(65536バイト)のXFS Arch:800MHz AMCC PowerPCプロセッサ、256MB RAM(Matthewの研究に感謝) これを行ったとき、私はWindows 10とMacOSコンピュータしか持っていませんでした。LVM2ボリュームにXFSをマウントできるソフトウェアは見つかりませんでした(1つを例外として、以下で詳しく説明します)。私は古いネットブックAcer Aspire Oneを取り出し、それにpuppy linux(具体的にはlxpupフレーバー)をインストールする必要がありました。 子犬のLinuxでは、と呼ばれるツールを使用してこのファイルシステムをマウントできましたdmraid。このツールには、Promise FastTrackのIDであるpdcボリュームをマウントする方法があります。なんとかそれをマウントしているいくつかのフープを飛び越えることができたら、私は実際のXFSファイルシステムにアクセスできるようになり、そして残念なことに、それは64kbのブロックサイズであることがわかりました。 ここで、「read xfs 64kb block size」のようなものをググって始めて、どこにも行きませんでした。「カーネルにパッチを適用しない限り、Linuxは4kbを超えるブロックサイズを読み取ることができません」と答えるのはほんのわずかです。カーネルにパッチを当てる方法がわかりませんし、これを可能にするエミュレーションもないので困惑しています。 Win / Macでこのパーティションを読み取ることができないアプリの1つの例外について言及しました。その例外はufsexplorerでした。100ドルのアプリで、シ​​ームレスにファイルを表示できました。私はそれが機能することを証明するいくつかのファイルをコピーしましたが、試用版では小さなファイルしかコピーできません。 64kbのxfsを読み取るのに役立つような複雑さのレベルにある無料のオープンソースツールはありません。 私の質問は、そのようなツールを誰かが知っていますか?1つ以上のツール、カーネルパッチ、または他の何か(無料)を使用してデータを取得する方法についての具体的な指示があれば、高く評価されます。 もう1つのポイント:これらのドライブのローカルイメージを作成する必要がないことを強く望みます(それが唯一の方法でない限り)。結局のところ、それは2TBのデータであり、私はこれほどのスペースを持っていないかもしれません。 PS 64 kbのxfsを読み取ることができる既知のLinuxがAcerにインストールできる場合、それも実行可能なソリューションです。 更新1:https://www.cgsecurity.org/wiki/TestDiskについて学んだところです。一撃の価値があるかもしれません。試してみる時間があったらまた報告します。 Update 2:TestDiskはXFSパーティションの存在を認識しているようですが、そこに進む方法がわかりません。ファイルを抽出する方法がわからないので、今はそれを放棄し、マシューの答えでqemuアプローチを試しました。

2
既存のRAID1を新しいLinuxシステムに接続するにはどうすればよいですか?
現在、単一のハードドライブでRAID1を実行しています(はい、ミラーはありません)。次のアルゴリズムを使用してシステムを再編成することは可能ですか? 別の単一ディスクRAID1を(同じタイプの別のHDDに)セットアップし、それをパーティション分割して、そこにDebianの新しいインスタンスをインストールします。 古いシングルディスクRAID1セットアップをマウントし、そこからすべてのデータを新しいRAIDにコピーします。 次に、古いディスクを再フォーマットして、新しいRAIDセットアップに含めます。 私はほとんど2番目の点を疑っています-どのようにすればよいですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.