タグ付けされた質問 「ssd」

ソリッドステートドライブは、ソリッドステートメモリを使用して永続データを保存するデータストレージデバイスを指します。

7
SSDをサーバーにインストールするのは理にかなっていますか?
約2TB以上のデータをホストするサーバーを構築したい。もちろん、SSDはデータドライブの観点からは見えません。私の質問は次のとおりです。SSDをブートドライブとして使用する利点はありますか?16Gメモリを搭載する予定です。ほとんどの場合、サービスをメモリにロードし、サーバーの再起動はほとんど必要ありません。この場合、SSDを取得するか、2つのSATAドライブを備えたRAID1を取得するのが理にかなっていますか?
12 hard-drive  ssd 

2
RAID(10)でSSD(Intel 530)の読み取り/書き込み速度が非常に遅い
説明: サーバーがあります: モデル:HP ProLiant DL160 G6 4 x 240GB SSD(RAID-10) 72GB DDR3 RAM 2 x L5639 HP P410 RAIDコントローラー(256MB、V6.40、Romバージョン:8.40.41.00) SSDドライブは、540MB / sの読み取り速度と490MB / sの書き込み速度を備えた4つの新しい2.5インチIntel 530です。 CentOS 6 ファイルシステムはext4です しかし、これはRAID 10の読み取り速度のテスト結果です。 hdparm -t /dev/sda /dev/sda: Timing buffered disk reads: 824 MB in 3.00 seconds = 274.50 MB/sec [root@localhost ~]# hdparm -t …

3
Linux + SSDのスワップパーティションでのバックグラウンド破棄
問題 LinuxのSSDディスク内のスワップパーティションでバックグラウンド TRIM操作を有効にしたい。この記事などのいくつかの記事によると、カーネルはこの構成を検出し、自動的に破棄操作を実行しますが、「破棄」マウントオプションを使用してこの動作を強制しても、テストでは動作していないようです。 シナリオ Linux 3.2.0を実行しているDebian Wheezy SSDディスク:1 x 120GB OCZ Vertex 3 MI 2GBスワップ「プレーン」パーティション、他のレイヤー(LVM、RAIDなど)なし バックグラウンド 以下は、バックグラウンドTRIMがスワップパーティションで動作しているかどうかを確認するために実行する手順です。 TRIMサポート:SSDディスクがTRIMコマンドをサポートし、カーネルがデバイスに非回転フラグを立てているかどうかを確認します。 # hdparm -I /dev/sda | grep TRIM * Data Set Management TRIM supported (limit 1 block) * Deterministic read data after TRIM # cat /sys/block/sda/queue/rotational 0 スワップフィルアップ:パーティションをマウントし、すべてのVMキャッシュを消去し、積極的にスワップするようにLinuxを構成して、vm.swappinessを100に設定します。次に、利用可能なすべてのメモリを割り当て、カーネルにスワッピングを開始させるスクリプトを実行します。 # swapon [--discard] /dev/sda2 # …
11 linux  debian  ssd  swap  trim 

6
Ubuntuサーバーのスワップ用SSD
現在、私はSSDのレビューを読んでおり、24 GBのスワップを7200rpm HDDからSSDに移動した場合、どれだけ正確に利益が得られるのだろうかと考えています。誰かがSSDにスワップスペースを実装していますか?これは一般的に良いアイデアですか? 補足:ジャーナルがSSD上にある場合、ext4のパフォーマンスがはるかに優れていることを読みました。そのようなセットアップをお持ちですか? ありがとう! 編集:ここで私は投稿された質問に答えます:時々、私はスワップを打つ比較的まれです。私はスワップの目的を知っていますが、それはより多くのRAMを取得する方が良いです。サーバーがスワップを開始すると、パフォーマンスが低下します(当然のことです)。アイデアは、低速の回転メディアの代わりにスワップにSSDを使用して、その時点でシステム全体のパフォーマンスを向上させるために、実行中のメモリを消費するプロセスがほとんどない場合です。最後に-ログインプロンプトを待つのではなく、スワッピング中に、より速くログインし、サーバーの状態を確認できるようにします。そして私が思うに、SSDはRAMよりもGBあたりのほうが安いです。 HDDと比較してSSDを使用すると、スワップ中のサーバーのパフォーマンスは向上しますか(まれですが)。このシナリオでは、10kまたは15k rpmのHDDはどこで評価されますか? 迅速かつ迅速な回答ありがとうございます!
11 linux  ubuntu  ssd  swap 

4
CentOS 5.5を搭載したCrucial C300 SSD上のext4のSSD TRIM(破棄)問題
古いOS(CentOS 5.5)で最新のカーネル(現在2.6.37)を使用して遊んで、SSD(Crucial C300)でTRIM(破棄)を動作させることができます。 最新のhdparm(9.37)では、C300がTRIMをサポートしていることに同意しています。 ./hdparm -I /dev/sdc | grep TRIM * Data Set Management TRIM supported (limit unknown) * Deterministic read data after TRIM しかし、破棄オプションを指定して/ dev / sdcをマウントしようとすると、カーネルは同意しないようです。 EXT4-fs warning (device sdc): ext4_issue_discard:2619: discard not supported, disabling 私はこれを入力するときに他のLinuxフレーバーを試していますが、何が起こっているのかを知っているといいのですが。 これは、カーネルを誤って通知しているCentOS 5.5の他の古代コンポーネントの現れですか?または、hdparmはTRIMがサポートされているかどうかを判断するためにカーネルとは異なるメカニズムを使用しているのでしょうか?
11 linux  centos  ssd  ext4  trim 

2
RAID 0にドライブのヒープを追加すると、パフォーマンスが向上しますか?
RAID 0にドライブのヒープを追加すると、パフォーマンスが向上しますか?ストライプRAIDの2つのドライブは通常1つのドライブよりも高速であることを知っていますが、たとえば、ストライプRAIDの2つのドライブと8つのドライブのパフォーマンスの違いに気づきますか?あなたが本当にこれ以上利益を得られない前に、レイドのドライブの数に一般的な制限はありますか? 同様の質問がここで尋ねられました RAID 10アレイにドライブを追加すると、パフォーマンスが向上しますか? しかし、レイド0に多くのドライブを追加すると、2や4を追加するだけで改善されるかどうか本当に質問します。パフォーマンスは向上し続けますか?
10 raid  performance  ssd 

3
SSDインスタンスタイプのルートデバイス。SSDとEBSの混乱
私はもともとt1.micro linuxから作成されたAMIを持っています。このAMIの「ルートデバイスタイプ」はEBS(8 GB)であり、私のWebアプリケーションソフトウェアはこのルートボリュームに「ベイク」されています。 次に、このAMIからm3.mediumインスタンスを起動したいと思いますが、4GB SSDの「インスタンスストレージ」があります。 新しく起動したm3.mediumインスタンスはSSDストレージを利用しますか?または、「インスタンスストア」をルート「ルートデバイスタイプ」として新しいAMIを作成する必要がありますか? 同様に...「Amazon Linux AMI 2013.09.2」を使用して最初からm3.mediumを起動しようとすると、起動ウィザードを使用して削除できないデフォルトで8GBのルートEBSボリュームが追加されます。 ここで何が欠けていますか?

4
磁石はHDDとSSDにどのような影響を与えますか?[閉まっている]
閉まっている。この質問は、オフトピック。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 8年前休業。 マグネットは、ハードディスクドライブやソリッドステートドライブに接触するとどうなりますか?

4
LinuxでのSSDの書き込みサイクル数または予想寿命を決定する方法は?
Linux(RHEL 5)サーバーでSSD(Intel X25-M)をしばらく実行してきましたが、過去1年間にどれだけの書き込み負荷がかかっているかを把握するための努力はしていません。Linuxの下で、時間の経過とともにディスクに書き込まれたおおよその量、または(さらに良いことに)ディスクに蓄積された摩耗量を知らせるツールはありますか?それが死に近いかどうかを確認するためのヒントを探しています...
10 linux  ssd 

3
ZFS-L2ARCキャッシュデバイス障害の影響(Nexenta)
私が持っているHPのProLiant DL380 G7のサーバはNexentaStorストレージユニットとして実行されています。サーバーには36GBのRAM、2つのLSI 9211-8i SASコントローラー(SASエクスパンダーなし)、2つのSASシステムドライブ、12のSASデータドライブ、ホットスペアディスク、Intel X25-M L2ARCキャッシュ、およびDDRdrive PCI ZILアクセラレーターが搭載されています。このシステムは、複数のVMWareホストにNFSを提供します。また、アレイには約90〜100 GBの重複排除されたデータがあります。 パフォーマンスが突然低下する2つのインシデントがありました。VMゲストとNexenta SSH / Webコンソールにアクセスできず、機能を復元するにはアレイを完全に再起動する必要があります。どちらの場合も、失敗した、または「オフライン」になったのはIntel X-25M L2ARC SSDでした。NexentaStorはキャッシュ障害についての警告に失敗しましたが、一般的なZFS FMAアラートが(応答しない)コンソール画面に表示されました。 zpool status出力は示しました: pool: vol1 state: ONLINE scan: scrub repaired 0 in 0h57m with 0 errors on Sat May 21 05:57:27 2011 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 0 …
10 zfs  ssd  nexenta  zfs-l2arc 

3
SSD上のシステムドライブ。独自のドライブへのページファイル?
16 GB RAMを搭載したWindows Server 2008 R2サーバーのシステムドライブにIntel X25-E SSDを使用しています。ページファイルを独自のドライブに移動するのは良い習慣でしょうか?もしそうなら、ページファイルドライブの場合、SSDまたは従来のハードドライブが優先されますか? ストレージ構成には2つのデータボリュームも含まれ、それぞれがPERC 5 / i統合RAIDコントローラに接続された4ディスクRAID 10アレイに実装されています。サーバーはDell PowerEdge 2900です。バックプレーンには10スロットがあり、1つはSSDに使用され、8つはRAID 10アレイに使用され、1つの空のスロットはページファイルドライブに使用できます。 ありがとう。

1
SSDディスクと10 GbeネットワークでのiSCSIパフォーマンスの低下
iSCSIターゲット Ubuntu 14.04(Trusty Tahr)。16GB RAMと16コアCPUをLVMでサポートし、3つのSamsung SSDディスクを使用するiSCSIターゲットとして、それぞれオンボードキャッシュを備えたLSI 6 Gbit / sコントローラーを使用して65k IOPSを実行できます。 ターゲットのSSDディスクのベンチマーク: fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=ssd-max iops=65514 どこsddハードウェアで構成されたRAID 0 3台のサムスン850 EVO SSDを使用しました。 イニシエータ 32 GB RAMと8コアCPUを搭載したUbuntu 14.04クライアントに500G LUNをエクスポートしました。 エクスポートされたLUNのベンチマーク fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=client-max iops=2400 …
10 linux  iscsi  ssd  open-iscsi 

4
少数のSSDドライブを備えたSAN、または古風なHDDがたくさんありますか?
私の会社は、購入するSANのタイプを把握しようとしています。これは、特にIO制約が生じているデータベースサーバー用です(現在、ストレージはDASですが、単一サーバーの制限に達しており、クラスタリングも追加したいと考えています)。 長期的に約3,000 IOPSを生成するソリューションが必要です(現在、ピーク時は約1000 IOPS)。データベース操作のほとんどは、小規模な読み取り/書き込みです。HPのエンジニアや他のオンラインとの議論に基づいて、RAID 10構成で24個のSAS HDを搭載したHP P2000は、その速度のわずか20万ドルを実現します。コントローラーやその他のアイテムを追加してSANを構築すると、最大予算の3万ドル近くになります。 しかしオンラインでは、多くのSAS SSDが80,000 IOPS +の速度を実現していることがわかります。これは現実的ですか?もしそうなら、P2000または同様のエントリレベルのSANを入手し、そこにいくつかのSSDを投入することは現実的でしょうか?私たちのデータベースは小さく、合計数TBです。これを行った場合、ミラーリング/フェイルオーバー用に2つ目のSANを購入するための残金があります。これは賢明なようです。

3
SSDでの安全な削除
磁気HDDの物理セクターを上書きする「従来の」安全な削除ユーティリティはSSDで機能しますか、それともSSDはセクターを単に「再マッピング」して、高価な削除操作を回避し、不確定な期間データをそのまま残しますか?

2
ZFSとキャッシュデバイス
SSDドライブをキャッシュとしてZFSストレージに追加します。誰もがこれで何か経験がありますか?キャッシュデバイスが停止した場合、データは影響を受けますか?
9 cache  ssd  zfs 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.