タグ付けされた質問 「smart」

自己監視、分析、レポート技術

6
ハードドライブに障害が発生していますか?
hddでテストを実行しようとしましたが、セルフテストを完了したくありません。結果は次のとおりです。 smartctl --attributes --log=selftest /dev/sda smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-32-generic] (local build) === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail …


2
SMARTテストは何をし、どのように機能しますか?
man smartctl 状態(簡潔にするためにSNIPPED): 最初のカテゴリと呼ばれるには、「オンライン」のテスト。テストの2番目のカテゴリは、「オフライン」テストと呼ばれます。通常、ディスクはディスクアクセスが行われている間、オフラインテストを一時停止し、ディスクがアイドル状態になると自動的に再開します。テストの3番目のカテゴリ(および「テスト」という単語が本当に適切な選択である唯一のカテゴリ)は、「自己」テストです。 SMART自動オフラインテストを有効または無効にします。これは、ディスクの欠陥について4時間ごとにドライブをスキャンします。このコマンドは、通常のシステム操作中に指定できます。 テストを実行するのは誰ですか-ドライブファームウェアですか?これらのテストはどのようなものですか-ファームウェアはディスクを読み書きしますか?OS(Linux)でテストを呼び出すのは安全ですか、それともBIOSプロンプトでOSを再起動するとき(「オフラインテスト」)、後でテストをスケジュールできますか?結果はどこに表示されますか-SMARTログ?
27 hard-drive  smart 

6
Linuxディスク上の単一の読み取り不能ブロックを簡単に修復するにはどうすればよいですか?
LinuxシステムでsyslogにSMARTエラーがスローされ始めました。私はそれを追跡し、問題はディスク上の単一ブロックであると信じています。その1つのブロックを再割り当てするディスクを簡単に取得するにはどうすればよいですか?その過程でどのファイルが破壊されたか知りたいのですが。(ディスクで1つのブロックに障害が発生した場合、他のブロックがそれに続く可能性が高いことを認識しています。適切な継続バックアップがあり、このディスクを機能させたいと考えています。) Webを検索すると、マウントされていないディスクでの手動プロセスを説明するBad block HOWTOが表示されます。複雑でエラーが発生しやすいようです。Linuxでこのプロセスを自動化するツールはありますか?私の他の唯一のオプションはメーカーの診断ツールですが、破壊されたものを報告せずに不良ブロックを壊すと思います。最悪の場合、ファイルシステムのメタデータである可能性があります。 問題のディスクはプライマリシステムパーティションです。ext3fsとLVMを使用します。syslogのエラーログとsmartctlの関連ビットを次に示します。 smartd[5226]: Device: /dev/hda, 1 Currently unreadable (pending) sectors Error 1 occurred at disk power-on lifetime: 17449 hours (727 days + 1 hours) ... Error: UNC at LBA = 0x00d39eee = 13868782 フル今回smartctlダンプありますペーストビンには。

1
パーティション分割されていないHitachi HDS5C3020ドライブは、起動後15分で50%以上の電力を消費し始めるのはなぜですか?
Debian 6.0.6システムには、74個の2TB Toshiba DT01ABA200ドライブがあります。これらのドライブは、ファームウェアリビジョンMZ4OAAB0を実行しているHitachi HDS5C3020BLE630ドライブとして識別されます。HP SASエクスパンダーカードを介してLSI 2008 SASコントローラーに接続された64台のドライブ、別の5台のドライブはメインボードに直接接続され、4台のドライブはSilベースのPCIコントローラーに接続され、最後の1台のドライブは電源のみで、データケーブルは接続されていません。コントローラLSIとSilカードのオンボードBIOSは両方とも無効になっており、mpt2sasモジュールとsata_silモジュールはLinux debian 2.6.32-5-amd64#1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU / Linuxカーネルから削除されています。mpt2sasモジュールは、ブート後に/etc/rc.localのmodprobeコマンドを使用してロードされます。これらの74台のドライブはパーティション化されておらず、フォーマットもマウントもされていません。 システムが消費するもの: 0のドライブ:70.6から70.9ワット(も15分ブート後)。 で74台のドライブ:330から360ワット、単にブート後(3.5に相当する-アイドル状態でドライブあたり3.9W)。 で74台のドライブ:420から466ワット、各時間15分の稼働時間のは(4.7に相当する-アイドル状態でドライブあたり5.3W)。 ドライブの仕様には、読み取り/書き込みとして4.7W、アイドル電力消費として3.3Wがリストされています。 約1分後、電源(PSU)の「過電流保護」(OCP)によって電源がシャットダウンされるため、5Vラインで消費電力が増加する可能性が高くなります。使用されるPSUは、12Vラインで122A以上、5Vラインで55A以上のOCPを備えたシングルレールモデルです。 回帰: ドライブのAPM値が無効または1(最大省電力)に設定されているかどうかは関係ありません。 オペレーティングシステムは、読み取り/書き込みアクティビティを記録しません/proc/diskstats。それらの値は、modprobe操作の直後と同じです(28回の読み取り、0回の書き込み操作)。 BIOSであるメインボードを起動するときに何が起こるかをテストできません-ファームウェア06/27/12を実行するSuper Micro X8SI6-Fメインボードには、「+ 74.0 C CPUセンサー温度を誤って読み取るバグがあるためBIOSモードで「高」になり、1分後に電源が切れます。 起動後15分以内にすべてのドライブでドライブの読み取り/書き込みアクティビティが発生する原因と、それを防ぐ方法は何ですか?

7
問題を示すSMARTセクターの再割り当てはいくつですか?
私は1か月以上たっているNAS機器を持っています。ハードドライブのSMARTデータから生成されたアラートをメールで受け取るように構成されています。1日後、ハードドライブの1つが、セクターが悪化して再割り当てされたと報告しました。最初の1週間で、その数は問題のハードドライブの合計6セクターにまで上昇しました。1か月後、その数は再割り当てされた9つのセクターになります。レートは間違いなく減速しているようです。 NASはRAID-5構成で6台の1.5 TBドライブで構成されています。このような大容量ドライブでは、セクターが時々故障することが予想されるため、最初のいくつかのセクターがいつ移転するか心配していませんでした。しかし、他のどのディスクも問題を報告していないのは気になります。 再配置の割合、または再配置の総数で、ドライブの状態を心配する必要がありますか?これは、ドライブの容量によって異なる場合がありますか?

6
SMART Hardware_ECC_Recoveredの値が高いことを心配する必要がありますか?
私はそのようなメッセージを受け取りました/var/log/messages: Jun 25 06:29:27 server.ru smartd[4477]: Device: /dev/sda, SMART Usage Attribute: 195 Hardware_ECC_Recovered changed from 46 to 47 #smartctl -a /dev/sda: smartctl version 5.38 [i686-redhat-linux-gnu] Copyright (C) 2002-8 Bruce Allen Home page is http://smartmontools.sourceforge.net/ === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 10 Vendor …
16 linux  hardware  smart 

3
SMARTは賢く使用できますか?
数年前、私は疫病のようなSMARTを避けるように言われました。その理由は、テストによってドライブにかかるストレスが実際にドライブを故障させることでした。 これはまだ事実ですか?そうでない場合、テストを実行する合理的な頻度は何ですか?それでも回避する必要がある場合、ハードドライブの状態を監視するより良い方法は何ですか?
16 hard-drive  smart 

1
電子メールでアラートを送信するように適切に設定されていますか?
次のようにDebianサーバーを設定しました apt-get install smartmontools vi / etc / default / smartmontools-ここでこれらの2行のコメントを外しました # uncomment to start smartd on system startup start_smartd=yes # uncomment to pass additional options to smartd on startup smartd_opts="--interval=1800" それから/etc/smartd.confを編集し、この行だけのコメントを外しました DEVICESCAN -S on -o on -a -m myemail@mydomain.com -s (S/../.././02|L/../../6/03) 何か問題が発生したときにシステムが警告メッセージを送信するのにこれで十分かどうか、および/または問題をシミュレートしてsmartdが電子メールで警告を送信するかどうかを確認する方法があるかどうか疑問に思っていました。
16 smart  smartctl 

4
SMARTセルフテストはどのように不良ブロックに関連していますか?
smartctlツールを使用すると、長いセルフテスト(smartctl -t long /dev/sda)を開始できます。ただしbadblocks、ドライブで実行できることもあります。この2つはどのように関連していますか?badblocksが不良ブロックを検出した場合、ドライブはSMART値を自動的に更新しますか(たとえば、再配置されたセクターカウントを更新することによって)?badblocksを置き換えることはできますsmartctl -t longか?

5
SMARTはディスク上でどのくらいの頻度で実行する必要がありますか?
私はソフトウェア管理者であり、システム管理者ではないので、この質問が少し緑色に見える場合は、理由を知っています!;-) 個人的なプロジェクトとして、FreeNASを使用してホームNASシステムに取り組んできました。FreeNASの機能の1つは、X秒単位で実行するSMARTチェックを設定できることです。デフォルトでは、これは1800秒(30分)ごとに実行されるように設定されています。これは私には高いように見えましたが、これは本当に妥当な値ですか?私は6時間ごとに1回チェックするか、何かが十分に合理的だと思うでしょう... 私の質問は次のとおりです。ドライブでSMARTチェックを実行する頻度はどれくらいですか?
14 freenas  smart 

3
SSDドライブの正常性を判断する簡単な方法は?
ここに記載されているように、ZFSストレージアレイで2回「失敗」とマークされたIntel X-25Mドライブがあります。ただし、ドライブを取り外した後、他のコンピューター(Mac、PC、USBエンクロージャーなど)でマウント、読み取り、書き込みを行っているようです ドライブの現在の状態を判断する良い方法はありますか?ZFSソリューションの以前の失敗は、バグ、悪いエラー報告、ハードウェアの収束であったと感じています。ただし、このドライブには寿命があるようです。
13 hardware  storage  ssd  smart 

5
smartctl -aの出力について
NASボックスに6台のドライブがあります。それらの2つはシーゲイトであり、エラーに対して高いRAW_VALUESを返します。下記参照。 私の他のドライブははるかに低い値を示しています。 これはアラームの原因ですか?それとも、シーゲイツの報告方法だけですか? 見てくださいRaw_Read_Error_RateとSeek_Error_Rate: # smartctl -a /dev/ada1 === START OF INFORMATION SECTION === Device Model: ST3000DM001-9YN166 Serial Number: W1F09S26 LU WWN Device Id: 5 000c50 0456076fc Firmware Version: CC4C User Capacity: 3,000,592,982,016 bytes [3.00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Device is: Not in smartctl database …

2
現在の保留中のセクターとオフラインの修正不可能な増加の原因とゼロへの減少
1週間にわたって、3TBのSeagateドライブ(ST3000DM001-1CH166)で、smartdは、オフラインの修正不可能な現在読み取り不可能な(保留中の)セクターの数が徐々に増加し、最後にカウントが0になりエラー状態になるまで減少することを報告しましたリセットします。ログから(変更のみを表示): Jul 6 18:04:57 x smartd[462]: Device: /dev/sdb [SAT], 8 Currently unreadable (pending) sectors Jul 6 18:04:58 x smartd[462]: Device: /dev/sdb [SAT], 8 Offline uncorrectable sectors [...] Jul 7 16:34:58 x smartd[462]: Device: /dev/sdb [SAT], 16 Currently unreadable (pending) sectors (changed +8) Jul 7 16:34:58 x smartd[462]: Device: /dev/sdb [SAT], …
12 smart  seagate 

2
ドライブが「汎用」デバイスとして提示される場合、WindowsでSSDの摩耗をどのように監視しますか?
Linuxでは、smartmontoolsドライブが通常のブロックデバイスまたは一般的なデバイス(ドライブがIBM HS22のような特定のコントローラーによってハードウェアRAIDされている場合に発生する)として提示されるかどうかでSSDの摩耗をかなり簡単に監視できます。 Windowsで同等の操作を行うにはどうすればよいですか?誰もが実際に使用していsmartmontoolsますか?または、他のパッケージがありますか? 問題は、SCSI GenericデバイスがWindowsに表示されないことです。ドライブがRAID化されていない場合、正常に表示されます。 Linuxでの方法: sles11-live:~ # lsscsi -g [1:0:0:0] disk SMART USB-IBM 8989 /dev/sda /dev/sg0 [2:0:0:0] disk ATA MTFDDAK256MAR-1K MA44 - /dev/sg1 [2:0:1:0] disk ATA MTFDDAK256MAR-1K MA44 - /dev/sg2 [2:1:8:0] disk LSILOGIC Logical Volume 3000 /dev/sdb /dev/sg3 sles11-live:~ # smartctl -l ssd /dev/sg1 smartctl 5.42 2011-10-20 r3458 [x86_64-linux-2.6.32.49-0.3-default] …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.