タグ付けされた質問 「ssd」

ソリッドステートドライブは、ソリッドステートメモリを使用して永続データを保存するデータストレージデバイスを指します。

3
SSDとHDDの信頼性(温度変化が大きい場合)
私は(50)屋外環境での記録データを必要とするアプリケーションを持っている、と寒さ(-20まで)に入れ、熱いとき、私はHDD対SSDの信頼性に興味を持って 周囲の環境を。直観から、高温の可能性を除き、SSDの方が信頼性が高いと思われます。空調エンクロージャーはオプションではありません。 これらの状況で、ディスクの信頼性に関する情報はありますか?
24 ssd  hard-drive 

3
EBSとSSDの定義
インスタンスを作成する際のEBSとSSDの選択について混乱しています。 インスタンスパラメータを選択している間(ステップ2)、[ インスタンスストレージ(GB) ]列に2つのオプションが表示されます: EBSのみまたはSSD。 SSDとEBSは異なるものであるため、なぜこのオプションが存在するのか分かりません。なぜ一方を選択し、他方を選択しないのですか。 以下のインスタンスストレージ(GB)の定義は 、すべてが永続的であるため上記と矛盾しています。(列名にカーソルを合わせると、この定義が表示されます) インスタンスで使用可能なローカルインスタンスストアボリューム。インスタンスストアのデータは永続的ではありません。インスタンスの存続期間中のみ保持されます。 ステップ4で再びSSDまたは磁気を選択する必要があるのはなぜですか? どんな説明でも役立ちます。

5
SSDヘッド/シリンダー/クラスターの詳細
私たちの顧客は、非常に古いが安定したハードウェアとソフトウェアで動作する産業用ロボットを製造しています。唯一のボトルネックは、常にこれらの移動マシンのハードドライブです。絶え間ない動き(衝撃など)により、HDDは通常6か月以上は生き残れません。 そのため、SSDを接続しようとしています。マザーボードにはSATA接続がないので(そこには驚きません)、SATA-IDEコンバーターを使用してマザーボードのIDEポートに接続しています。これは機能し、BIOSはドライブを認識します。 唯一の問題は、起動しないことです。POSTでフリーズします。BIOSでは(1990年代から)、「HEADS」、「SYL」、「CLUSTER」、および「LANDZ」と呼ばれるいくつかの値を指定する必要があります。従来のHDDとは異なり、このドライブには明らかにプラッターがありません。ドライブがIDEでこれらのことを模倣する方法はありますか?どういうわけか、これらの値が特定のドライブにどうあるべきかを知ることができますか?ランダムに値を変更しましたが、POSTに合格する場合としない場合があります。ただし、起動しても起動せず、ドライブが接続されていないと表示されます。 要するに、SATA SSDを古いIDEマザーボードに接続した経験はありますか?この機能を実現するために何ができるでしょうか?

2
L2ARCとZILの場合:両方に1つの大きなSSDを使用するか、2つの小さなSSDを使用する方が良いでしょうか?
この質問は、サーバー障害で回答できるため、スーパーユーザーから移行されました。 7年前に移行され ました。 主な参考文献 ZFS L2ARC(Brendan Gregg)(2008-07-22)およびZFSおよびハイブリッドストレージコンセプト(Anatol Studlerのブログ)(2008-11-11)には次の図が含まれています。 質問 SSDレイヤーでの縦の白い線を、別の SSD を使用するための優先事項として解釈する必要がありますか? 単一のディスクでL2ARCとZILを混在させない設定 背景(コメントへの応答) 個人的には、自宅では、利用可能なコンピューターでL2ARCまたはZILを使用することはほとんどありません。(私の日常のコンピューターは、8 GBのメモリとハイブリッドSeagate ST750LX003-1AC154を搭載したMacBookPro5,2です。光学ドライブをSSDに置き換える予定はありません。) 他の場所:職場ではキットの再利用がありますが、日付や詳細はありません。(ミックス内のXserve RAID x2…現時点では、これらをZFSに提供することは考えていませんが、心を開いています。) L2ARCとZILの両方に対するSSDのベストプラクティスについての私の好奇心は、ZEVO領域でのパフォーマンス関連の議論(特に、ユーザーが1つのディスクにL2ARCとZILの両方を持っている以下のトピック)を追うことから始まりました。 その他の参照と議論 L2ARCスクリーンショット(Brendan Gregg)(2009-01-30) SLOGスクリーンショット(Brendan Gregg)(2009-06-26) [zfs-discuss] ZFSルートバックアップ/「災害」復旧、およびルートプールの移動(2011-01-10 )は、単一のディスク上の3つの要素(ルートプール、ZIL、およびL2ARC)の混合に対して推奨します– …同じディスク上で3つすべてを管理しようとしたときに発生する可能性のある頭痛の価値はありません。たとえば、データプールのZILのコンテンツを再インストールして誤って上書きすることにした場合。管理と復旧を簡単にするために、プールコンポーネント用またはプール間でディスクを共有しないでください。… – 1 つのディスクにこれらの2つを混在させないことをお勧めしますか? /superuser//a/238744/84988(2011-01-28)は、「キャッシュ(L2ARCキャッシュ)およびSSDへのログ(ZIL)の書き込み」(単数形)について言及しています。ただし、FUSEとWindowsに関連するため、ZFSのより一般的でパフォーマンス重視の使用に特に関連するものとしてその答えを扱いません。 @ChrisSは、2011年8月16 日のThe Comms RoomでZILと L2ARC について言及しました。 http://forums.macrumors.com/showpost.php?p=14248388(2012-01-31)は複数の SSD について説明しています: ZFSについて理解する必要があるもの:通常、SSDに格納される2種類のキャッシュ、読み取りおよび書き込み(L2ARCおよびZIL)があります。ZILは書き込みキャッシュです。おそらく、この誤解はどこから来たのでしょう。ZILは、zpoolに発生するすべての書き込みでハンマーで攻撃されます(アクティブなシステムを想定)。問題は、ZILとしてmlcベースのSSDを使用すると、それらがすぐに磨耗して故障することです。ZILドライブとして使用するには、(はるかに高価な)slcベースのSSDが必要です。 zpoolを完全にSSDで構成することは可能であるだけでなく、非常にうまく機能します。また、基本的に、ZILとL2ARCに別々のドライブを使用する必要がなくなります。はい、TRIMサポートはありませんが、ZFSのコピーオンライトの性質に基づいて、それはおそらく良いことです。 そうは言っても、ZFSはほぼフル(たとえば、85%以上)のzpoolではうまく機能しません。回転磁気メディアまたはソリッドステートのどちらを使用しているかに関係なく、パフォーマンスは大幅に低下し始めます。TRIMサポートの欠如はおそらくその問題を悪化させるでしょうが、それはすでに問題です。 /server//a/397431/91969(2012-06-11)が推奨するもの: ZIL用のSLCタイプSSD(特にMLCではない) L2ARC用のMLCタイプSSD。 /superuser//a/451145/84988(2012-07-19)は、「ZILを高速化するためのZILおよびL2ARCのSSD」という単数形について言及しています。 …
22 ssd  cache  zfs 

6
SSD上のBtrFSでTRIMサポートを確認する
SSDディスクのアレイでBtrFSを使用することを検討しており、BtrFSが実際にファイルの削除時にTRIM操作を実行することを確認するように求められました。これまでのところ、TRIMコマンドがディスクに送信されたことを確認できませんでした。 BtrFSは本番環境とは見なされていませんが、私たちは最先端を好むので、テストしています。サーバーはUbuntu 11.04サーバー64ビットリリース(mkfs.btrfsバージョン0.19)です。Linux 3.0.0カーネルをインストールしました。BtrFSの変更ログには、Ubuntu 11.04(2.6.38)に同梱されているカーネルではバルクTRIMを使用できないことが示されているためです。 これが私のテスト方法です(最初はhttp://andyduffell.com/techblog/?p=852から採用され、BtrFSで動作するように修正されています): 開始する前にディスクを手動でトリムします。 for i in {0..10} ; do let A="$i * 65536" ; hdparm --trim-sector-ranges $A:65535 --please-destroy-my-drive /dev/sda ; done ドライブがTRIMされたことを確認します。 ./sectors.pl |grep + | tee sectors-$(date +%s) ドライブをパーティション分割します。 fdisk /dev/sda ファイルシステムを作成します。 mkfs.btrfs /dev/sda1 マウント: sudo mount -t btrfs -o ssd /dev/sda1 /mnt ファイルを作成します。 dd …
21 linux  ubuntu  ssd  btrfs  trim 

4
NVキャッシュを備えたRAIDコントローラーは、SSDアレイのパフォーマンスまたは整合性を改善しますか?
RAID 10のSSDを搭載したサーバー(Dell PowerEdge R740)を購入する予定です。優先事項は書き込みパフォーマンスとデータ整合性です。Linuxを実行します。SSDには、電力損失保護を備えた書き込みキャッシュがあります。 これらは私のRAIDオプションのようです: PERC H330(キャッシュなし)、ソフトウェアRAID(パススルー) PERC H330(キャッシュなし)、ハードウェアRAID(ライトスルー) PERC H730P(2 Gb NVキャッシュ)、ハードウェアRAID(ライトスルー) PERC H740P(8 Gb NVキャッシュ)、ハードウェアRAID(ライトスルー) 私の質問: これらの構成のいずれかが、データ損失または電力損失時の破損の危険にさらされていますか? 最高の書き込みパフォーマンスを得るには、どの構成を期待すべきですか? NVキャッシュには、考慮していない他の利点はありますか? 関連する質問: ソフトウェアとハ​​ードウェアRAIDのパフォーマンスとキャッシュの使用 LSI FastPathとソフトウェアRAIDの違いは何ですか?
20 raid  cache  ssd 

4
SSDドライブはデフォルト以外のアロケーションユニットサイズの恩恵を受けますか?
現在のセットアップでドライブをフォーマットするときに推奨されるデフォルトのアロケーションユニットサイズは、4096バイトです。私は大小のサイズの長所と短所の基本を理解していますが(パフォーマンスの向上とスペースの節約)、ソリッドステートドライブ(シーク時間はハードディスクよりもはるかに低い)の利点により、はるかに小さい割り当てが発生する可能性がありますサイズは有害ではありません。 この場合、SSDの欠点(GBあたりの大幅な価格上昇)を克服するのに少なくとも部分的に役立つでしょう。 シーク時間に特に関連する小さな割り当てサイズの「コスト」を決定する方法はありますか?または、この新しい技術に基づいてデフォルトからの変更を推奨する研究や記事はありますか? (プログラムファイル、OSファイル、データ、mp3、テキストファイルなどのサイズの最も平均的なばらつきを想定してください。)
19 hard-drive  ssd  format 

10
SSDドライブのゼロ化
お客様向けにVPSをホストしています。各顧客VPSには、標準のスピンドルハードディスク上のLVM LVが与えられます。顧客が去る場合、データが他の顧客に漏れないようにこのLVをゼロにします。 ホスティング事業にSSDを使用することを考えています。SSDに「ウェアレベリング」テクノロジーがあるため、ゼロ化は無意味になりますか?顧客データが他の顧客に漏洩することを許可できないので、このSSDのアイデアは実行不可能になりますか?
18 hard-drive  ssd 

5
Linuxでext4 + LVM +ソフトウェアRAIDでSSD TRIM(破棄)を動作させることは可能ですか?
Linux(現在2.6.37)上のmdでRAID1 + 0を使用してmdデバイスを作成し、LVMを使用してデバイス上でボリューム管理を提供し、次にext4をLVMボリュームグループのファイルシステムとして使用します。 SSDをドライブとして、TRIMコマンドがレイヤー(ext4-> LVM-> md-> SSD)を介してデバイスに伝播することを確認したいと思います。 最近の2.6.3xカーネルには、Device Mapperシナリオのより多くのカバレッジを含む、多くの新しいSSD関連のTRIMサポートが追加されたように見えますが、それを適切にカスケードダウンさせることはまだできないようです。 これはまだ可能ですか?もしそうなら、どのように?そうでない場合、何か進展がありますか?
18 linux  raid  lvm  ssd  trim 

4
ワイプが非常に遅い。エントロピーが少なすぎますか?
ハードディスクを含むラップトップを手渡す必要があります。暗号化されていないので、少なくともすぐに消去したかった。私はこれがSSDで最適ではないことを知っていますが、私は単なる読みやすいよりも良いと思いました。 現在、ライブUSBスティックのワイプを実行していますが、非常に遅いです。なぜだろうか。もちろん、そのデバイスをワイプすること以外、コンピューター上ではほとんど何も起きていないので、エントロピーが低くなる可能性があると思います(entropy_availによると、それは1220にあります)。電話をかけるだけでも同様に良いでしょうか dd if=/dev/random of=/dev/sda1 bs=1k 四回?または、ランダム性を高めるものを呼び出す方法はありますか?または、ボトルネックはどこかで完全に異なっていますか?

7
NVMeストレージとハードウェアの要件を理解する
PCIeベースのストレージの最近の開発、特にNVMe仕様とそのハードウェアの互換性に関連して、私は少し混乱しています。 私はディスクフォームファクターのSSDとFusion-ioのようないくつかのハイエンドPCIeデバイスで広範囲に取り組んできましたが、NVMeの基本を理解できず、どのタイプのサーバーの明確化を求めていますハードウェアがサポートされています。 たとえば、Supermicroからのこのような広告コピーは紛らわしいです。 ...高性能CPU PCI-E Gen3はNVMeデバイスに直接接続します。 私が扱ってるのLinuxベースのソフトウェア定義のストレージ・ソリューションと独自のドライバ(使用スペアフュージョン・アイオーデバイス、使用していた提示は/ dev / fioX OSにデバイス名を)。 ベンダーに助けを求めたとき、応答は次のとおりでした。 「fioX」デバイスの命名は、新しいNVMeデバイスインターフェイスによって廃止されました。旧式のアダプターを購入して、他の誰も要求していないサポートを追加することを意味します。 これは少し厳しいようです。Fusion-ioアダプターは時代遅れだとは思いませんでした。 私がオンラインで見つけたわずかな情報は、NVMeが絶対に最新世代のサーバーハードウェア(Intel E5-2600v3 CPUとPCI 3.0チップセット?)でのみサポートされていることを示唆しているようです。しかし、これを確認することはできません。 これは本当ですか? 採用率はいくらですか?これは、エンジニアが設計の決定において考慮しているものですか、それとも完全に形成されていない「標準」について話しているのですか? NVMeが市場の最新システムにのみ適用されるものである場合、古いシステムのインストールベースはNVMeに対応できないことを(ベンダーに)提案するのは合理的ですか?したがって、私が要求したサポートを追加する価値はありますか?

3
SSDでRAID5を回避する主なポイントは何ですか?
私の理解では、SSDの書き込み量は限られています。RAID5は、ドライブ全体のパリティ情報のために多くの書き込みを実行します。したがって、推論では、RAID5はソリッドステートドライブのパフォーマンスを高速で停止させ、低下させると述べています。 この記事からの次の声明は、私が完全に理解していないか、上記の推論で間違っているかもしれないと思うようにします。 高耐久性SSDのもう1つのニッチは、パリティRAIDアレイです。SLCは、本質的に優れた書き込みレイテンシと耐久性により、このタイプのアプリケーションに適しています。
16 ssd  raid5 

4
SSD TRIMのハードウェアRAIDコントローラーサポート
現在利用可能なハードウェアRAIDコントローラーはTRIMをサポートしていますか? そうでない場合、製造業者はTRIMをサポートする予定の日付を持っていますか? パフォーマンスに敏感なワークステーションにインストールされたSSDのTRIMを気にする必要がありますか? あなたがそれを提案する前に、はいソフトウェアRAIDは問題を回避しますが、私の要件はソフトウェアRAIDを許可しません。 編集:現在の答えは、「TRIMをサポートするRAIDコントローラーはありません」と思われます。 更新: Intel 7シリーズのマザーボードは、2012年8月時点でRAID 0 TRIMをサポートしています。おそらく2015年には、さらに多くのベンダーがこれをサポートしています。
16 raid  ssd 

4
パフォーマンスの低下により、2つのSSDをRAID1構成に入れないようにする必要がありますか?
2つの64GB産業用SSDを持つワークステーションシステムがあり、キックスタートでセットアップされた冗長性のために両方のディスクをRAID1構成にする予定です。システムはCentOS 7を実行します。これを調べると、RHELストレージ管理ガイドがSSDのRAID1を推奨していないことがわかりました。 Red Hatは、SSDでのソフトウェアRAIDレベル1、4、5、および6の使用は推奨されないことも警告しています。これらのRAIDレベルの初期化段階で、一部のRAID管理ユーティリティ(mdadmなど)は、ストレージデバイス上のすべてのブロックに書き込み、チェックサムが正しく動作することを確認します。これにより、SSDのパフォーマンスが急速に低下します。 これは私が真剣に懸念すべきものですか?使用できる冗長性の代替手段はありますか? RHELのドキュメントによると、LVMミラーリングはMDソフトウェアRAIDを活用するようになったため、RAID警告もそれに適用されます。 詳細:SSDはSwissbit X-200シリーズ(SATA)であり、オーバープロビジョニングは40%のようです。 ハードウェアチームによると、ハードウェアRAIDは選択肢になりません。
15 centos  raid  redhat  ssd 

3
PCI Expressリンク速度の再ネゴシエーションを強制しますか?x2カードはx1幅に戻ります
新しいHP ProLiant Gen8サーバーでSSDドライブを使用する際の互換性とコストの障壁を回避するために、プラットフォーム上のPCIeベースのSSDの検証に取り組んでいます。私はAccelsior E2と呼ばれるOther World Computingの興味深い製品を試してきました。 これは基本的な設計です。Marvell 6Gbps SATA RAIDコントローラと2つのSSD「ブレード」がカードに接続されたPCIe カード。これらは、ソフトウェアRAID(たとえばZFS)のためにOSにパススルーするか、ハードウェアRAID0ストライプまたはRAID1ミラーペアとして活用できます。気の利いた。コントローラとディスクを本当に小さなフォームファクタにコンパクト化するだけです。 問題: そのPCIeコネクタを見てください。それはPCie x2インターフェースです。物理的なPCIeスロット/レーンのサイズは通常x1、x4、x8、およびx16で、電気接続は通常x1、x4、x8、およびx16です。それはいいです。サーバーでx1カードを使用したことがあります。 起動したシステムでこのカードのパフォーマンスのテストを開始し、サーバー/スロット/ BIOSの構成に関係なく、読み取り/書き込み速度が〜410 MB / sに絞られていることを発見しました。使用中のサーバーは、x4およびx8 PCIeスロットを備えたHP ProLiant G6、G7、およびGen8(Nehalem、Westmere、Sandy Bridge)システムです。カードのBIOSを見ると、デバイスがネゴシエートされていることが示されましたPCIe 2.0 5.0Gbps x1。したがって、2つではなく1つのPCIeレーンしか使用していないため、利用可能な帯域幅の半分しか使用できません。 PCIeデバイスを異なる速度で実行する方法はありますか? 私の調査では、PCIe x2はちょっと変わったレーン幅です... PCI Express規格は明らかにx2レーン幅との互換性を必要としないので、サーバー上のコントローラーはx1にフォールバックしていると思います...頼み事はありますか? 短縮lspci -vvv出力。LnkStaとLnkCap行の違いに注意してください。 05:00.0 SATA controller: Marvell Technology Group Ltd. Device 9230 (rev 10) (prog-if 01 [AHCI 1.0]) Subsystem: Marvell …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.