タグ付けされた質問 「raid」

RAIDは、独立したディスクの冗長アレイを表し、ディスクをさまざまな方法でリンクできるようにします。Ubuntuの一般的なRAID設定は、ハードウェアRAID、FakeRAID、ソフトウェアRAIDです。

2
「エラー:余分なRAIDメンバー」について心配する必要がありますか?
update-grub古いソフトウェアRAID(md)で新しくインストールされたUbuntu 12.04で実行すると、次のようになります。 error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). Generating grub.cfg ... error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID …
9 grub2  raid  mdadm 

6
偽のレイドを自動マウントするにはどうすればよいですか?
ハードウェア Asus K8N4-E Deluxe Mobo Sil 3114フェイクレイド、オンボード 2 Seagate 250 GB HD、私の/ homeをホスト / homeの別のハードディスク上のバックアップ 私が今持っているもの Sil 3114ファームウェアを使用してレイドを作成しました。RAIDレベル1を使用しています。プロンプトが表示されたらすぐにrootとして実行するbashスクリプトがあります。 dmraid -ay mount /dev/mapper/sil*1 /home 問題 rootとしてログオンし、起動するたびにその愚かなbashスクリプトを使用する必要があります。Ubuntuはraidボリュームを自動的に理解していません。RAIDボリュームはfstabブート時に存在しないため、ここには挿入していません。起動時にfakeraidから/ homeを自動マウントするにはどうすればよいですか?
9 raid  dmraid 


3
画像ファイルのRAIDアレイを作成する
では、3つのイメージファイル/home/をに用意しました。それぞれのイメージファイルは、異なる物理ドライブにあります。 image1.img image2.img image3.img 各イメージは同じサイズであり、イメージ自体をRAID0に配置したいと考えています。 それらをRAID化する方法を教えてください。 編集:mdadmを使用すると、次のエラーが発生します: 編集:出力 cat /proc/mdstat 編集:出力 sudo gparted /dev/md0

1
2TBを超えるディスクでRAIDアレイを作成するにはどうすればよいですか?
既存のサーバーにソフトウェアRAIDアレイをセットアップする正しい方法を教えてください。アレイに使用する2つの新しい3 TBディスクがあります。 具体的には、LVMを使用せずに、ext4にフォーマットされた3TB RAID 1アレイをセットアップしたいと思います。しかし、より一般的な答えは、最初から最後までの指示で他の人を助けるかもしれません。 私はいくつかのガイドを試しました: RAID 1の実装方法は?-プロセスの一部のみをカバー RAID 1での2つの追加SSDドライブのセットアップ -3TBではなく2TBのアレイになります RAID 1に2つの新しいHDDを追加 -1TBドライブのみを使用 私はこれらのリソースも見つけました: http://richard.blog.kraya.co.uk/tag/mdadm/-CentOSの場合、更新mdadm.confやその他の手順は対象外 http://www.technotes.se/?p=1732-包括的だが複雑であり、Ubuntu用に特別に作成されていない ドライブの最初のパーティション分割が重要なようです。上記の最後のリンクはこれについて詳細に述べていますが、前のリンクは同じ結果を達成するようで、より簡単です。
9 server  raid  mdadm 

2
スワップとRAID-1を混合する必要がありますか?
スワップ領域に使用されている小さなRAID-1アレイのボックスがあります。私がこれを行ったのは、システム内の他のすべてのパーティションにミラーをセットアップしていたからです。 今日、私はこの質問を読んだところ、「RAID-1でのスワップは理想的/推奨ですか?」
9 12.04  raid  swap 

2
ホームメディアサーバーには、zfs、btrfs、LVM / mdのどちらが適していますか?[閉まっている]
休業。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善してみませんか?この投稿を編集して、事実と引用で回答できるように質問を更新してください。 6年前休業。 新しいホームサーバーの構築を検討しており、柔軟なファイルシステムが必要です。btrfsとzfsはどちらも興味深いものです。ハードドライブを追加するときにストレージを簡単に拡張できる柔軟なソリューションとソフトレイドを実行できるようにしたいと考えています。コストの関係でハードウェアRAIDに興味がありません。これは必須のサーバーではないので、試してみてリスクを負うつもりです。このメディアサーバーはインターネット経由でリモート再生できます。ほとんどの場合、Plex Media Serverソフトウェアを実行します。使用したい一部のソフトウェアはLTSでのみサポートされているようなので、Ubuntu 12.04の実行を考えています。

1
RAIDアレイを起動するのに十分なコンポーネントがありませんか?
「Western Digital MyBook World Edition(白色光)」NASデバイスからデータを取得しようとしています。これは基本的に、ext3でフォーマットされた1TB HDDが組み込まれた組み込みLinuxボックスです。明らかな理由もなく、1日で起動を停止しました。 ドライブ上のファイルにアクセスすることを期待して、NASデバイスからHDDを抽出し、Ubuntu 10.10を実行しているデスクトップマシンにインストールしました。残念ながら、Ubuntuはドライブを自動的にマウントできませんでした。 ディスクユーティリティを起動すると、ドライブが「アレイ(アレイ)」と呼ばれるマルチディスクデバイスとして表示され、メタデータバージョン0.90.0が表示されます。デバイスの状態は、「実行されていません。起動するのに十分なコンポーネントがありません」です。「RAIDアレイを開始」ボタンをクリックすると、「RAIDアレイを開始するのに十分なコンポーネントがありません」というエラーが表示されます。 不足しているコンポーネントと、それらをインストールしてドライブのファイルシステムにアクセスする方法を教えてください。
8 mount  raid 

2
mdadm RAID-6書き込み速度の向上
5x1Tb WD Green HDDのホームサーバーにmdadm RAID-6があります。読み取り速度は十分です-ddで268 Mb / s。しかし、書き込み速度はわずか37.1 Mb / sです。(48Gbファイルでddを介してテストされた両方、RAMサイズは1Gb、テストで使用されたブロックサイズは8kbです) 書き込み速度が非常に遅い理由を教えてください。それを改善する方法はありますか?書き込み中のCPU使用率はわずか25%(つまり、Opteron 165の1コアの半分)で、ビジネスに重要なデータはなく、サーバーはUPSでバックアップされています。 mdstatは: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sdd1[4] sde1[3] sdf1[2] sdb1[1] 2929683456 blocks super 1.2 level 6, 1024k chunk, algorithm 2 [5/5] [UUUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 助言がありますか? …
8 raid  mdadm 

1
Working RAID 1が「ERROR:pdc:wrong#of devices in RAID set」を返します
Ubuntu GNOME 16.04.1 LTS 64ビットを使用しています。 Iは、で作られたmdadm、(任意のOSやブートローダなし)通常の保存のために2 2-TB-ディスクをRAID 1れている/dev/sda1と/dev/sdb1(1.8 TBの両方全く同じパーティションサイズで)。/パーティションがでている/dev/sdc1ので、私はそれが影響するとは思いません。 私は問題なく約120 GBを保存しているので、どちらも完全に動作しているように見えcat /proc/mdstatますが、それでも次のように返されます。 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md127 : active raid1 sda1[0] sdb1[1] 1932603392 blocks super 1.2 [2/2] [UU] bitmap: 0/15 pages [0KB], 65536KB chunk unused devices: <none> 問題は、実行するたびにupdate-grub次の「エラー」が返されることです。 ERROR: pdc: wrong # of devices …

1
btrfsルート配列でinitramfsにスタックする
btrfs raid1を使用して3つのドライブでシステムをセットアップしようとしていますが、btrfsルートに複数のドライブがある場合、initramfsで停止します。 私の3つのパーティション:/ dev / mapper / sda3_crypt | sdb3_crypt | sdc3 crypt 3つのドライブすべてのロックが解除されてマップされ、local-premount / btrfsが正しくセットアップされているように見えます(btrfsデバイススキャンを実行しています)。 #!/bin/sh set -e PREREQ="" prereqs() { echo "${PREREQ}" } case "${1}" in prereqs) prereqs exit 0 ;; esac if [ -x /bin/btrfs ] then modprobe btrfs /bin/btrfs device scan 2> /dev/null fi そして、btrfsのUUIDを使用して/ etc …
2 boot  raid  luks  btrfs  initramfs 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.