タグ付けされた質問 「ssd」

ソリッドステートドライブは、ソリッドステートメモリを使用して永続データを保存するデータストレージデバイスを指します。

2
SSD、消去ブロックサイズとLVM:rawデバイスのPV、アライメント
新しいSSDをインストールし、デバイス全体をLVMのPVとして使用します。つまり、このデバイスにパーティションを1つも配置する予定はありません。そのため、消去ブロックでパーティションを揃える必要はありません。 質問 ingの--dataalignment場合は消去ブロックサイズに設定し、pvcreateingの場合は消去ブロックサイズ--physicalextentsizeの倍数に設定するだけで十分vgcreateですか? だから、私のSSDが1024kの消去ブロックサイズを持っていると仮定すると、それは大丈夫ですか? pvcreate --dataalignment 1024k /dev/ssd vgcreate --physicalextentsize $(( x * 1024 ))k ... 他に考慮すべきことはありますか? このVGのLVにext4-filesystemsを配置すると仮定すると、ext4-extentsをLVM-PE-sizeに揃えることをお勧めしますか?ext4-extentsはLVM-PE-sizeと同じサイズまたは複数のサイズにする必要がありますか? 明確化をありがとう!
15 lvm  ssd  alignment 

3
電力損失による破損からSSDを保護する方法はありますか?
Linux、ローカルWebサーバー、およびPostgreSQLがインストールされたコンシューマターミナルのグループがあります。問題のあるマシンのフィールドレポートを取得していますが、調査の結果、停電が発生したようで、ディスクに何か問題があるようです。 私は、問題は単にデータベースが破損すること、または最近の変更を含むファイルがスクランブルされることであると考えていましたが、他の奇妙な報告があります。 間違った許可を持つファイル ディレクトリになったファイル(たとえば、index.php現在はディレクトリ) ファイルになったディレクトリ スクランブルされたデータを含むファイル データベースが破損する問題がありますが、それは私が期待できることです。私がもっと驚いたのは、より基本的なファイルシステムの問題です。たとえば、アクセス許可やファイルをディレクトリに変更することです。問題は、最近変更されていないファイル(ソフトウェアコードや構成など)でも発生しています。 これはSSD破損の「正常」ですか?もともとは安価なSSDで起こっていると思っていましたが、有名ブランド(消費者グレード)で起こっています。 FWIW、クリーンブートではautofsckを実行していません(理由はわかりませんが、私は新しいです)。一部の場所にはUPSが設置されていますが、場合によっては適切に実行されないなどがあります。これは修正する必要がありますが、それでも端末の電源を落とすことができます。ファイルシステムはext4です。 質問:システムレベルで問題を軽減するためにできることはありますか? ハードウェアキャッシュをオフにするか、同期モードでドライブをマウントすることに関する記事をいくつか見つけましたが、この場合に役立つかどうかはわかりません(メタデータの破損と最近の変更ではありません)。また、読み取り専用モードでのファイルシステムのマウントに関するリファレンスも読んでいます。書き込む必要があるため、これを行うことはできませんが、それが役立つ場合は、コードと構成用の読み取り専用パーティションを作成できます。 これはドライブの例ですsudo hdparm -i /dev/sda1: Model=KINGSTON RBU-SMS151S364GG, FwRev=S9FM02.5, SerialNo=<deleted> Config={ Fixed } RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=0 BuffType=unknown, BuffSize=unknown, MaxMultSect=16, MultSect=16 CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=125045424 IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120} PIO modes: pio0 pio3 pio4 DMA modes: mdma0 mdma1 mdma2 UDMA modes: udma0 …

1
このSSDドライブが不良セクタで失敗するのはなぜですか?
注:この質問は、トピック外として以前閉じられていました。あなたは議論を読むことができます。ここで質問する理由は次のとおりです。 このドライブは、ザンビアの田舎の学校のオフラインコンテンツキャッシュサーバーにあります。 サーバーはディスクイメージから作成され、すべてのコンテンツは交換可能です。 ザンビアの学校は予算が限られているため、安くなければなりません。 また、悪い道路では片道8時間かかる可能性があるため、信頼できるものでなければなりません。 ここでは、どのドライブが「超格安」ではないのかを尋ねることはできません。 そのため、これらの基準を満たすドライブの独自の研究と実験を行っています。 不良セクタを上書き(自動再割り当て)して修復することができないため、仮定を無視し、その理由を知りたかったのです。 おそらくセキュリティの消去が不良セクタを修正するかもしれないと思っていましたが、ドライブを破壊する前に他の人の意見を求めていました。 SMARTデータで、失敗を予測できたはずの何かを見逃したのではないかと思った。 これはKingston 240GB SSDディスクで、約3か月間サイトで正常に機能していましたが、突然不良セクターが発生しました。 smartctl 5.41 2011-06-09 r3365 [i686-linux-3.2.20-net6501-121115-1cw] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF INFORMATION SECTION === Device Model: KINGSTON SVP200S3240G Serial Number: 50026B7228010E5C LU WWN Device Id: 5 0026b7 228010e5c Firmware Version: 502ABBF0 …
15 linux  hard-drive  ssd 

1
ソフトウェアmd-raidを使用してSSDにLinux fstrimを実装する
現在、MariaDBインスタンスを実行するために、RAIDミラーに2つの256GB SSDを搭載した新しいUbuntu 13.04サーバーを構築しています。通常、LVMはmd raid 1アレイの上にあるdm-crypt暗号化の上に配置しますが、以前はこのセットアップでSSDを使用していません。 私の質問は、新しい(3.8)カーネルを使用するため、fstrimをRAIDボリュームに直接適用できるようにする必要があることです。fstrim -v /RAIDが適所になかった場合と同じように、cronジョブを介して適切に動作するために、これに単純に依存できますか?RAIDボリュームの上にLVMがあってもこれは本当ですか?ドライブにあるハードウェア暗号化を使用する予定なので、ここではdm-cryptは必要ありません。 注:更新されたカーネルバージョンのバックポートとmdボリュームでの廃棄の実装に関連するいくつかの同様の質問があることを認識しています- fstrim新しいカーネルでさらに変更することなくmd-raidに対して動作するかどうかを具体的に尋ねています。 更新:これがうまくいったことをフォローアップして投稿したかっただけです。そこジョブが実行されますが、上fstrim cron.dailyがあることで、今だ/と/boot、それが完璧に働いています。また、SSD(Samsung 840 Pro)のハードウェア暗号化にはTPMサポートが必要であることが判明しましたが、TPMサポートはないため、リンクに示すようにソフトウェア暗号化を構成しました。追加することによりdiscard中のオプションに/etc/crypttab(ないと/etc/fstab)とissue_discards = 1のデバイスセクションに/etc/lvm/lvm.confも、LVM、暗号化、およびRAID層によって罰金、fstrim作品。 LVMおよび暗号化を使用したSSDでのトリム/廃棄の構成に関する詳細情報は、こちらから入手できます。

3
HPストレージアレイ-複数のチャネル?
SQLサーバーの負荷が非常に高くなり、すべての兆候がディスクチャネルがボトルネックであることを示しています。現在のHPサーバーにはかなりローエンドのアレイカードがあり、このサーバーにSmartアレイカードとSSDドライブを備えた外部ストレージアレイを追加する予定です。 現在の構成は次のとおりです。 DL360 G7 SmartアレイP410i Windows Server 2008R2 32Gb RAM 現在のアレイは、ブート/ OS用の2 x 300Gb SAS RAID1論理ドライブとデータ用の1 x 120Gb SATA SSDドライブです。 データベースサーバーは、ライブデータと履歴データの両方を含む1つのかなり大きなデータベース(〜100Gb)をホストします。多くの理由で、データベースの分割はオプションではないため、現在の考え方は、新しいアレイに複数の論理ドライブをそれぞれ独自のチャネルに配置し、データベースを論理SQLパーティションに分割することです。 たとえば、配列には次のものがあります。 2 x SSD(RAID1) 2 x SSD(RAID1) 4 x SSD(RAID1 + 0) 現在、ハイエンドのSmartアレイカードを搭載したD2600のようなものを検討しています。 最大のパフォーマンスを得るには、各論理ドライブを可能な限り高速で実行する必要があります。HPの仕様によると、トップエンドSSDは、Smartアレイカードがサポートする6Gb接続を最大限に活用できる可能性があります。 ただし、いくつかのより大きなSAカードは、「複数のチャネル」をサポートすることを示唆しています。私にははっきりしないのは、この仕組みです。これは、SAからD2600への1本のケーブルで、各RAIDセットが独自の6Gbチャネルを取得するように構成できるということですか?または、6Gbは相互接続の制限であり、もしそうであれば、この制限を克服する設定オプション(または異なるHP製品-「主観的な質問なし」ルールを回避しようとしない:)がありますか? 編集:それを行うHPサーバーは表示されませんが、内部ドライブケージを2つ(またはそれ以上)のチャネルに分割できる適切なProliantボックスがある場合、それは「プランB」である可能性があります-誰もがそのようなサーバーを知っていますか?

2
破棄の有効化HP 3PAR StoreServ 7400
以前に尋ねられたこれらの質問から分離 マウントされたドライブRedhat 7から空き領域を取得する方法 更新crypttabはfstrimのパスフレーズを要求します 38のホストに170のVMが展開されたHP 3PAR StoreServ 7400があります。 私が理解している問題は次のとおりです(また、真実かどうかわからない情報をいくつか聞いたことがありますが、HP 3PAR StoreServ 7400ホワイトペーパーを読みましたが、実際にストレージ担当者を裏付けるものは見つかりませんだから、もし誰かが真実ではないことに気付いたら、私に知らせてください。 3 PARは3つのセクションに分かれており、 レイヤー1:よくアクセスされるファイルのキャッシュとクイックアクセスに使用されるSSD。 レイヤー2:およびレイヤー3:回転するディスクの種類、不明な追加の2つのレイヤーが存在する理由と理由は不明ですが、最も一般的にアクセスされないデータにはレイヤー2が使用され、ビット3にアクセスするにはレイヤー3が使用されます残りのストレージ。 SSDブロックにデータを書き込むときに多くの記事で読んだSSD部分内で、新しいデータが書き込まれるまでそのブロックがゼロ化されないため、ブロック内のデータが削除されるとマッピングを格納するテーブル情報が更新され、新しいデータがその同じブロックに書き込まれるとき、ブロックは最初にゼロ化される必要があり、それから書き込むことができます。ドライブが周期的に調整されていない場合、SSD内のこのプロセスにより、速度が低下する可能性があります。 3PAR LUNはシンプロビジョニングされ、VMはEager Thickプロビジョニングされます。 私のストレージ担当者によると、3PARには特別な機能が組み込まれており、必要に応じて他のVMがSSDストレージを使用できないようにしますが、これは意味がありません。 事実確認: シックプロビジョニングされたVMはVMDKファイルです。VMの作成時に、VMのサイズを指定すると、VMDKファイルが作成されます。私の心では、VMに定期的にアクセスしている場合、VMDKファイル全体がSDDに移動され、VMDKが40GBを使用するように設定されていても、その40GBの一部を使用できる他のVMですか?これは、シックではなくシンプロビジョニングされたVMのように思えます。 問題が発生しました。 Windowsシステムでは、sdeleteを使用して未使用のブロックを見つけてゼロにします。 私たちのLinux Fedoraシステムでは、私はfstrimを機能させる方法を模索していました。 dd = write-big-file delete-big-fileコマンドを試してみたところ、屋根からディスクI / Oが送られましたが、気が付いたので、もう一度やらないように言われました。 少し調べてみると、sdeleteはdd = write-big-file delete-big-fileとほとんど同じことをしているので、WindowsシステムのディスクI / Oが屋根を通過しないのはなぜですか? だから私はそれを2つの解決策に絞り込んだと思う。どちらも私は方法を知っています。 どういうわけか、VMを別のストレージアレイにvモーションせずに、SANのSSD部分全体でfstrimのような機能を実行できます。 サイドノート:私が読んだすべてを理解したら、fstrimはすべてのブロックを見てデータが存在するかどうかを確認し、必要な場合は不要な場合はブロックをゼロにします.sdeleteが巨大なファイルを書き込んでから削除します。3PARのSSD部分全体でfstrimオプションを探しているのはそのためです。 ロングショットですが、fstrimでエラーが発生します: [root @ rhtest〜]#fstrim -v / fstrim:/:破棄操作はサポートされていません OSとデータストアの両方で破棄オプションを設定する必要があることを読みましたが、3PARで破棄オプションを設定する方法や場所を理解できないのは、3PARにSSHとGUIの両方のアクセス権があります。 …

3
LinuxでSSDに実行された合計書き込みを測定する方法は?
インターネットを検索して、SSD(または通常のディスク)に対して実行された合計書き込みを確認できるツール/ユーティリティを見つけました。出力は次のようになります。 SSD Intel 320S :- Total data written until now -- 2Tb Total data read until now -- 4Tb power on Hours -- 1234 Hrs etc. しかし、私はそれを見つけていません。誰かがそのようなツールを知っていますか? WindowsのSSDLifeツールがこれを行うことは知っていますが、Linuxでこれを行うことを特に検討しています。 私は、セリバノフsmartctlがsmartmontools提案したコマンドを調べました。彼の投稿はとても役に立ちました。インターネットを掘った後に出会った情報をここに追加します。 gsmartcontrol(guiバージョンのsmartctrl)が特に役立つことがわかりました。これらのクラスのツールの詳細については、Smartmontools-Community Ubuntu Documentationを参照してください。このリンクにはの例がありsmartctlます。 各SMART属性の意味を理解するには、このIntel SMART Attributesを確認してください。これらの属性はIntel SSDに固有のものですが、それでもSMART属性がどのような情報を伝えるのかというアイデアを提供します。一部の特定のパラメーターは、SSDによって異なる場合があります。LBAサイズはそのうちの1つですか?、わかりません。 別の優れた情報源は、LinuxでのSSDの書き込みサイクル数または予想寿命を決定する方法ですか?-サーバー障害。ここで、最良の答えは、これSMART Attribute Id 225までにSSDに対して実行された32MiBのサイズの合計書き込みI / O の略です。ただし、これはIntel X25-Mに適用されます。他のSSDでは、他のSMART属性を使用して、ディスクに書き込まれた合計データを伝達できます。 特に、Samsung 840 Pro(および他のSamsung SSDでも)がSMART Attribute Id …
13 linux  ubuntu  ssd 

2
SSDドライブのext3パーティションでの突然の停電後のファイルシステムの破損は「予期される動作」ですか?
私の会社は、内蔵SSDドライブのext3パーティションから起動する組み込みDebian Linuxデバイスを作成しています。デバイスは埋め込まれた「ブラックボックス」であるため、通常は外部スイッチを介してデバイスの電源を切るだけで無作法にシャットダウンされます。 ext3のジャーナリングは物事を整理するので、これは通常は問題ありません。そのため、ログファイルの一部が時々失われることを除いて、物事はうまく動き続けます。 ただし、最近、いくつかのハードパワーサイクルの後にext3パーティションが構造上の問題を発生し始めるユニットを見てきました。特に、ext3パーティションでe2fsckを実行すると、次のような多くの問題が見つかります。この質問の下部にある出力リストに表示されます。エラーの報告(またはパーティションの再フォーマット)が停止するまでe2fsckを実行すると、問題は解消されます。 私の質問は...たくさんの突然の/予期しないシャットダウンにさらされたext3 / SSDシステムでこのような問題を見ることの意味は何ですか? 私の考えでは、これはシステムのソフトウェアまたはハードウェアの問題の兆候である可能性があります。私の理解では、ext3のジャーナリング機能はこれらの種類のファイルシステムの整合性エラーを防ぐはずだと理解しているためです。(注:ユーザーデータはジャーナリングされていないため、ユーザーファイルが変更/欠落/切り捨てられる可能性があることを理解しています。具体的には、以下に示すようなファイルシステムメタデータエラーについて説明しています) 一方、同僚は、SSDコントローラーが書き込みコマンドを並べ替える場合があり、ext3ジャーナルが混乱する可能性があるため、これは既知/予想される動作であると述べています。特に、正常に機能するハードウェアとバグのないソフトウェアが与えられたとしても、ext3ジャーナルはファイルシステムの破損を不可能ではなく不可能にするだけであるため、時々このような問題が発生しても驚かないはずです。 私たちのどちらが正しいですか? Embedded-PC-failsafe:~# ls Embedded-PC-failsafe:~# umount /mnt/unionfs Embedded-PC-failsafe:~# e2fsck /dev/sda3 e2fsck 1.41.3 (12-Oct-2008) embeddedrootwrite contains a file system with errors, check forced. Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Invalid inode number for '.' in directory inode …

3
SSDドライブの正常性を判断する簡単な方法は?
ここに記載されているように、ZFSストレージアレイで2回「失敗」とマークされたIntel X-25Mドライブがあります。ただし、ドライブを取り外した後、他のコンピューター(Mac、PC、USBエンクロージャーなど)でマウント、読み取り、書き込みを行っているようです ドライブの現在の状態を判断する良い方法はありますか?ZFSソリューションの以前の失敗は、バグ、悪いエラー報告、ハードウェアの収束であったと感じています。ただし、このドライブには寿命があるようです。
13 hardware  storage  ssd  smart 

8
Linuxを使用した自作の自動階層型ストレージソリューション?(メモリ-> SSD-> HDD->リモートストレージ)
システムにSSDを使用し、データにHDDを使用することに関するこの質問に関連します。ただし、システムにこれを自動的に実行させたい場合を除きます... できれば無料のオープンソースソフトウェアを使用して、ストレージの複数のレイヤーを持ち、それらの間でアイテムを自動的にプッシュすることは可能ですか? EMC SAN-> EMC Centera自動アーカイブのような非常に高価なエンタープライズクラスのソリューションを知っていますが、この種の段階的なストレージが自動的に実行できるかどうか疑問に思いました。 これに複数のレイヤーを含めることができると便利です:メモリ-> SSD-> HDD->より遅いHDDまたはテープまたは他のアーカイブソリューション。 これを自動的に行うことができるファイルシステムはありますか?(ZFS、Btrfs、ハンマー?) 任意のUnixの私はどのようにこの作品に、それはLinuxや他のフレーバー(BSDなど)への移植である可能性が高いのかどうか興味があるよう-variantsは、罰金です。
13 linux  unix  ssd  archive  storage 

9
RAID 0で2つのソリッドステートドライブを使用すると、信頼性が向上しますか?
Western Digital 10k RPMハードドライブから2つのIntel-X25ソリッドステートドライブをRAID 0構成で使用するようにアップグレードすることを考えています。これを使用して、オペレーティングシステムをホストし、アプリケーションをインストールします。ただし、すべてのデータは現在、個別のSeagate Barracuda 7.5k RPMハードドライブに保存されています。 私の目標は、OS(Vista Ultimate)のパフォーマンスとアプリケーションの起動を大幅に改善することです。私には2つの懸念があります... 1、Intel-X25ドライブは、特にRAID 0で2台使用している場合、ハードなマシンで使用するのに十分な信頼性があるため、障害の可能性が2倍になります。 2、ソリッドステートドライブの動作が停止するまでの書き込みサイクルの数は限られているため、デスクトップの使用量が数年以内に期限切れになると聞いています。予想されるアップグレードサイクルは、とにかく2年後におそらくマシンを交換することを意味します。
13 raid  ssd 

1
SQLをSSDよりも高速にメモリから実行していますか?
最近、私たちはこれまでに知っている1つのクエリでOracleデータベースがロックアップする問題を抱えています。 起こっていることの内訳をお伝えしますが、実際には私の質問とはあまり関係ありませんが、提案は受け付けています。 断続的に、それがいつ発生するのかがわかりません。過去1か月に4回発生し、ユーザーがアプリケーション内の何かをクリックします。ユーザーがクリックしているものはまだ不明です。クリックすると、約70万行を生成するデータベースでクエリが実行されます。 クエリが実行されているテーブルをチェックしました。インデックスは適切に見えます。 データベースは60GBで、サーバーには32GBがあります。 データベースサーバーのログから、高いI / Oが表示されますが、CPUとRAMは同じままです。 1つのアプリケーションサーバー、CPUは約75%まで上がります。ワーカープロセスとPIDを見つけることはできますが、ワーカープロセスに関連付けられているPIDを強制終了すると、CPUが短時間停止し、その後すぐに元に戻ります。 また、アプリケーションプールをリサイクルし、IISを再起動しても同じことが行われ、CPUが短時間停止した後、すぐに元に戻ります。 サーバーを元の状態に戻すためにできる唯一のことは、再起動です。 したがって、このクエリがロックアップの原因である場合の私の提案は、データベースをキャッシュしてメモリが不足するように、ボックスのメモリを増やすことができます。これは一度聞いたことがありますが、本当かどうかはわかりません。 ストレージは3層のHP PAR 3であり、データベースはほとんどSSD層にあります。 どちらが高速なSSDまたはメモリですか
12 iis  memory  oracle  ssd 

3
SSDディスクの安全な削除に関連する潜在的な落とし穴
Linuxホストサーバーの1つから2つのSSDディスクを使用停止する必要があります。 ディスクに保存されたデータを安全に削除するために、私は使用することを計画していましたhdparm --security-erase。 私はこのドキュメントを読みましたが、削除を意図したもの以外に、ホストに接続されているディスクがないことを提案しました。 また、この記事では、カーネルまたはファームウェアのバグがある場合、この手順によりドライブが使用できなくなるか、実行中のコンピューターがクラッシュする可能性があることを指摘しています。 このサーバーは現在運用中であり、運用ディスク用のソフトウェアRAID構成を備えています。削除する必要があるディスク用のRAIDコントローラーはありません。 質問: これは実稼働環境で実行するのにかなり安全な操作ですか、それとも別のホストでディスクを取り外してこの手順を実行する方がよいでしょうか? 編集:文書化された素敵な手順のリンク

2
RAID上のVMware ESXi SSDが非SSDとして表示される
KVMサーバーをESXiサーバーに置き換えています。ESXi 5.5u1をインストールし、データストアを追加しました。新しいサーバーには、ハードウェアRAIDを使用したRAID 6のSSDドライブが4つあります。データストアを追加すると、VMwareはストアが非ssdであると言います。 これは正常ですか?VMwareは、SSD自体ではなく、RAIDカードによって公開された仮想ディスクを見ていることは明らかです。最高のパフォーマンスを得るには、VMwareにソリッドステートディスクであると伝える必要がありますか?それとも、RAIDカードに任せるべきですか?私は主にTRIMを心配しています。

1
ssdファームウェア、Linux:ドライブの大規模バッチの更新
最近、データセンターに配置された多数のCrucial SSDに影響を与える致命的なファームウェアバグに見舞われました。影響を受けるマシンの多くは、Crucialの起動可能なISOが認識しないLSIまたはその他の独自のSASコントローラーを使用しています。影響を受けるマシンにはWindowsライセンスがありません。このストーリーは、SamsungやIntelを含む他のSSDメーカーでほぼ同様です。 この問題を解決するために、各マシンを停止し、影響を受けるSSDを削除し、SSDをホットスワップキャディから削除し、ThinkPadに一時的にインストールし、ファームウェアをフラッシュし、反転し、すすぎ、繰り返します。影響を受けるすべてのデバイスを通過するのに1日の大半を費やしました。 SSDファームウェアのバグは避けられないように思われ、SSDの設置面積は拡大しているため、この痛みを緩和するためのハードウェア、ソフトウェア、および/または購入戦略を探しています。 私の最初の考えは、eSATAとこれらのケーブルの 1つを備えたラップトップを手に入れることです。少なくともそれでうまくいくはずなので、キャディからドライブを取り外す必要はありません。 確かに他の人がこれに遭遇しています。新しいソリューションはありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.