タグ付けされた質問 「hard-drive」

ハードディスクのパフォーマンス、問題、ヒント、およびソフトウェアに関する質問。



8
ハードウェアSATA RAID-10アレイ内の単一のディスクが、アレイ全体をきしむように停止させるにはどうすればよいですか?
前奏曲: 私はコードサルであり、私の小さな会社のシステム管理者としての任務をますます受けています。私のコードは私たちの製品であり、ますます私たちはSaaSと同じアプリを提供しています。 約18か月前、私はサーバーをプレミアムホスティング中心のベンダーからティアIVデータセンターのベアボーンラックプッシャーに移動しました。(文字通り、通りの向こう側。)このことは、ネットワーキング、ストレージ、監視など、はるかに多くのことを行っています。 大きな動きの一環として、ホスティング会社からリースされた直接接続ストレージを置き換えるために、SuperMicroシャーシ、3ware RAIDカード、Ubuntu 10.04、20個のSATAディスク、DRBDおよびに基づいて9TB 2ノードNASを構築しました。すべての愛情を込めて3件のブログの記事に記載されます:アップの構築&新9TB SATA RAID10 NFSv4のNASをテスト:パートI、パートIIとパートIIIを。 また、Cacit監視システムもセットアップします。最近、SMART値など、より多くのデータポイントを追加しています。 私はせずに、このすべてを行っていることができなかった素晴らしい boffins で ServerFaultの。楽しくて教育的な経験でした。私の上司は幸せです($$$のバケットを節約しました)、顧客は幸せです(ストレージコストは下がっています)、私は幸せです(楽しい、楽しい、楽しい)。 昨日まで。 停止および回復: 昼食後しばらくして、オンデマンドストリーミングメディアCMSであるアプリケーションからパフォーマンスの低迷のレポートを取得し始めました。ほぼ同時期に、Cacti監視システムが猛烈な電子メールを送信しました。より重要なアラートの1つは、iostat待機のグラフでした。 パフォーマンスが非常に低下したため、Pingdomは「サーバーダウン」通知を送信し始めました。全体的な負荷は中程度で、トラフィックの急増はありませんでした。 NASのNFSクライアントであるアプリケーションサーバーにログオンした後、ほとんどすべてが非常に断続的で非常に長いIO待機時間を経験していることを確認しました。そして、プライマリNASノード自体にホップすると、問題のアレイのファイルシステムをナビゲートしようとしたときに同じ遅延が明らかになりました。 フェイルオーバーの時間、それはうまくいきました。20分以内に、すべてが完全にバックアップおよび実行されることが確認されました。 死後: すべてのシステム障害の後、事後分析を実行して障害の原因を特定します。私が最初にしたことは、sshを箱に戻し、ログのレビューを開始することでした。完全にオフラインでした。データセンターへの旅行の時間。ハードウェアのリセット、バックアップ、実行。 で/var/syslog私はこの怖い見た目のエントリを見つけました: Nov 15 06:49:44 umbilo smartd[2827]: Device: /dev/twa0 [3ware_disk_00], 6 Currently unreadable (pending) sectors Nov 15 06:49:44 umbilo smartd[2827]: Device: /dev/twa0 [3ware_disk_07], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate …

8
Linuxでハードディスクの負荷を監視するにはどうすればよいですか?
Linuxでハードディスクの負荷を監視するための良いコマンドラインユーティリティはありますか?topディスクアクティビティiso cpuの使用状況を監視するようなものです。 より具体的には、実行されるプログラムのさまざまな部分でいくつかの最適化を行った後の一部の(高負荷の)サーバーでは、現在のボトルネックはディスク上のファイルへのログ記録だけです。しかし、サーバーが処理できるトラフィックの量を評価することは非常に困難です。 私の理想的なツールは、「現在、ディスク帯域幅の35%を使用しています」と表示されるものです。何か案は?

10
RAIDディスクをまとめて購入するよりも個別に購入する方が良いでしょうか?
これは奇妙な質問のように聞こえるかもしれませんが、同僚の何人かと活発な議論を生み出しています。8個または12個のディスクのようなもので構成される、中程度のサイズのRAIDアレイを検討してください。ディスクの最初のバッチを購入する場合、またはアレイを拡張したりハードウェアを更新するために交換品を購入したりする場合、2つの幅広いアプローチがあります。 1つのベンダーから1つの注文ですべてのドライブを購入し、すべてのディスクを含む1つの大きな箱を受け取ります。 さまざまなベンダーから1枚のディスクを注文するか、1枚のディスクの注文を数日または数週間にわたって分散させます。 明らかにいくつかの妥協点がありますが、これらは主な対立する考え方です。私は、アレイの壊滅的な故障のリスクを減らすという点で、どのアプローチがより賢明であるかを本当に知りました。(「アレイの再同期化にかかる時間に等しい時間枠内でディスクの25%が故障する」と定義しましょう。)すべてのディスクが同じ場所から来た場合、すべてが同じであるロジックストライキを待っている根本的な欠陥。あなたがそうするなら、同じ最初の時計のカウントダウンで同じ時限爆弾。 私はそれぞれのアプローチについてより一般的な長所と短所をいくつか収集しましたが、それらのいくつかは、証拠に基づいた堅固なデータではなく、推測と直感のように感じます。 一度にすべて購入、プロ 研究/注文フェーズに費やす時間が短縮されます。 ベンダーが請求する場合の送料を最小限に抑えます。 ディスクは、動作特性(温度、振動など)で同じファームウェアバージョンと同じ「癖」を持つことがほぼ保証されています。 価格の上昇/在庫不足がプロジェクトの途中で停止することはほとんどありません。 次の各ディスクは、インストールする必要がある瞬間に手元にあります。 シリアル番号はすべて既知であり、ディスクはシリアル番号の増加順にエンクロージャーに取り付けることができます。過度にうるさいようですが、一部の人々はそれを重視しているようです。(管理インターフェイスは、ハードウェアポートの順序ではなくシリアル番号でディスクを並べ替えると思います...?) まとめ買い、短所 すべてのディスクは(おそらく)同じ工場で製造され、同じ材料で同時に製造されました。それらは同じ環境に保管され、輸送中に同じ潜在的な悪用の対象となりました。1つに存在する欠陥または損傷はすべてに存在する可能性があります。 ドライブを一度に1つずつ既存のアレイに交換し、新しい各ディスクを個別に再同期化する必要がある場合、注文の最後のディスクがインストールされ、障害があると検出されるまでに数週間かかる可能性があります。ベンダーとの返品/交換ウィンドウはこの期間中に期限切れになる場合があります。 プロジェクト中に発生する可能性がある近未来の価格低下を利用することはできません。 個別に購入、プロ 1つのディスクに障害が発生した場合、他のディスクとほとんど製造/輸送履歴を共有しません。製造または輸送中の何かが原因で障害が発生した場合、根本原因は他のディスクでは発生していない可能性があります。 ディスクが到着時にデッドであるか、使用の最初の数時間で故障した場合、それは出荷が到着した直後に検出され、返品プロセスがよりスムーズに進む可能性があります。 個別に購入、短所 納得のいく価格の十分なベンダーを見つけるのにかなりの時間がかかります。注文の追跡、配送の失敗、破損した商品の返品、その他の問題の解決には時間がかかる場合があります。 潜在的に高い送料。 新しいディスクが必要になるものの、手元にないものがあり、プロジェクトが停止する可能性が非常にあります。 想像上の利益。ベンダーまたは購入した日付に関係なく、すべてのディスクは同じ場所から来ており、実際には同じです。製造上の欠陥は品質管理によって検出され、標準以下のディスクは販売されませんでした。出荷時の損傷は非常にひどく(肉眼ではっきりと見えるように)なければならず、そのため損傷したドライブは開梱時に明らかになります。 単に箇条書きの数で行く場合は、「一括購入」がかなり明確に勝ちます。しかし、長所のいくつかは弱く、短所のいくつかは強いです。箇条書きの多くは、単純に他のいくつかの論理的な逆を示しています。これらのことのいくつかは不条理な迷信かもしれません。しかし、迷信がアレイの整合性を維持する上でより良い仕事をするなら、私はそれに沿って進んでいくと思います。 ここで最も賢明なグループはどれですか? 更新:この議論に関連するデータがあります。私が個人的に構築した最後のアレイ(約4年前)には8つのディスクがありました。私は単一のベンダーに注文しましたが、購入を約4枚ずつ2注文に分割しました。実行の最初の数時間以内にアレイの1つのディスクが故障しました。それは最初のバッチからのものであり、その注文の返品期間はすべてをスピンアップするのにかかった時間で閉じていました。 4年後、7台の元のディスクと1台の交換ディスクは引き続きエラーなしで実行されています。(木のノック。)

17
データを回復不能にするために、ハードドライブに穴を開けるだけで十分ですか?
会社には多くのPCがありますが、多数のハードドライブを消去したい人はいません。また、物を破壊したい見習いツールメーカーもたくさんいます。したがって、数か月ごとに、見習いはドリルスルー用に2つの重いハードドライブバスケットを受け取ります。 私の同僚の何人かは、これは絶対にやり過ぎだと信じています。ただし、ドライブをドリルする前にドライブを拭かないと、一部のデータが回復可能になると考えています。 この質問によると、DBANでワイプすると、データは完全に回復不能になります。 DBANは問題ありません。ここに汚い小さな秘密があります-ドライブのすべてのバイトを上書きするプログラムはすべて永久にすべてを消去します。異なる書き込みパターンなどで複数のパスを実行する必要はありません。 穴を開けるのはどうですか?


13
サーバー用のSSDまたはHDD
問題 ストレージに関する多くの議論を読み、SSDとクラシックHDDのどちらが優れているかを読みました。私はかなり混乱しています。HDDは依然として非常に好まれていますが、なぜですか? アクティブストレージにはどちらが適していますか?たとえば、ディスクが常にアクティブなデータベースの場合はどうでしょうか? SSDについて。 長所 彼らは静かです。 機械的ではありません。 最速。 短所 もっと高い。 質問。 SSDの1つのセルのライフサイクルを使用すると、どうなりますか?このセルだけでディスクが削減され、正常に動作しますか? 書き込むのに最適なファイルシステムは何ですか?ext4は連続してセルに保存するので良いですか? HDDについて。 長所 安い。 短所 機械的な故障の場合、私は通常それを修復する方法はないと考えています。(確認してください。) 最も遅いですが、サーバーには通常HDDの速度で十分だと思います。 価格だけですか?なぜHDDが好まれるのですか?また、SSDはサーバーにとって本当に便利ですか?

8
テープドライブの利点は何ですか?
IBMは現在でもテープドライブの開発と販売を行っています。それらの容量は現在のハードドライブと同等であるように見えますが、検索時間と転送速度はどちらもハードドライブのそれよりも大幅に低くなっています。 それでは、テープドライブが今日のハードドライブ(またはSSD)よりも望ましいのはいつですか?

7
最新のコンピューターに8ビットSCSIドライブを正常にマウントするにはどうすればよいですか?
歴史的な目的のためにアーカイブしたい内部8ビットSCSI-1ドライブが多数あります。これらはすべて、DO SoftwareとQuakeを作成するためにid Softwareによって使用された古いNeXTキューブとNeXTStation(モノクロとカラー)です。私はマシンをどこか良いところに寄付したいのですが、ジョン・カーマックは10年以上前に私がドライブを渡した場合にドライブを拭くと約束し、貴重なデータを失うのは嫌ですそれは彼らの上にあります。 理論的には、SCSIには下位互換性があることを認識しているので、適切なケーブルと最新のSCSIカードに差し込むことができるかもしれません... しかし、それほど単純ではないのではないかと疑っています。さらに、どのタイプのケーブルやアダプターが必要なのか、どこで入手するのかは明らかではありません。 データの抽出に成功したら、Johnにpingを実行して、ディスクイメージを一般に公開しても問題ないかどうかを確認します。それは彼のデータであるため、彼の電話になります。idは彼らのコードの多くをオープンソース化したので、ここでは何も役に立つものはないかもしれませんが、私のオタクは、もしあればそれを失うことを嫌います。:)

23
ハードディスクを破壊するにはどうすればよいですか?
約3年前の古いハードディスク(Maxtor 250Gb)があり、それがエラーを出し始め、今では私の机に引き込まれています。いくつかの機密データがありますが、ディスクが不良になり始めたため、読み取ることができません。ただし、処分する前に、ディスクを破壊してもデータを回復できないようにします。 データを読み取れないようにディスクを破壊する最良の方法は何ですか?(私はアリゾナ州に住んでいて、125 Fの日があるときに庭に置いておきたいと思っていました... ディスクが破壊された後に処分する最良の方法は何ですか?(それをゴミ箱に捨てるのは環境的に不健全だと思います。)
49 hard-drive 

3
LVMを使用してEXT4ボリュームをオンラインで縮小することはできますか?
今日、OpenSUSE 12.3(カーネル3.7)を搭載したマシンでこれを試しました。 # resize2fs /dev/mapper/system-srv 2G resize2fs 1.42.6 (21-Sep-2012) Filesystem at /dev/mapper/system-srv is mounted on /srv; on-line resizing required resize2fs: On-line shrinking not supported /dev/mapper/system-srv EXT4ボリュームです。 それは本当にサポートされていないのですか、何か不足していますか?
47 linux  lvm  hard-drive  ext4 


10
Linux on VMware-パーティション化を使用する理由
Linux VMを仮想化環境(私の場合はESXi)にインストールする場合、マウントポイントごとに個別のディスクを追加するだけでなく(ext4を使用する場合)ディスクをパーティション分割する説得力のある理由はありますか? 私が見ることができる唯一のことは、例えばfdiskでディスク上にデータが存在するかどうかを見るのがいくらか簡単になることです。 一方、パーティションを使用しない理由はいくつかあります(明らかに/ boot以外)。 ディスクを簡単に拡張できます。VM(通常はVCenter)のディスクサイズを増やしてから、VMでデバイスを再スキャンし、オンラインでファイルシステムのサイズを変更するだけです。 パーティションを基礎となるLUNに揃える際の問題はもうありません。 このトピックについてはあまり見つけていません。重要なものを見逃していませんか?

5
プロセスごとのディスクI / O使用率を確認する方法
失速しているLinuxシステムに問題があり、sysstat / sarがディスクI / O使用率、平均サービス時間、およびシステム停止時の平均待機時間の大きなピークを報告することがわかりました。 次回にこれらのピークを引き起こしているプロセスを特定するにはどうすればよいですか? sarを使用することは可能ですか(つまり、すでに記録されているsarファイルからこの情報を見つけることができますか? 「sar -d」の出力、システムストールは午後12時58分から13時1分ごろに発生しました。 12:40:01 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 12:40:01 dev8-0 11.57 0.11 710.08 61.36 0.01 0.97 0.37 0.43 12:45:01 dev8-0 13.36 0.00 972.93 72.82 0.01 1.00 0.32 0.43 12:50:01 dev8-0 13.55 0.03 616.56 45.49 0.01 0.70 0.35 0.47 12:55:01 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.