(SQL Serverのインストールで)数百テラバイトのデータを持つクライアントを見始めています。一部の企業のデータの総量がペタバイトの意味のある部分に近づくと、その規模のデータを扱う人々がそれを保護するために何をしているのかを知るために、集合的な知識ベースを調べたいと思います。
明らかな問題は、その量のデータの複数のバックアップを保存することは、エンタープライズクラスのストレージを使用して、非常に高価なことです。
表示されるオプションは次のとおりです。
- 別のデータセンターにデータのミラーコピーを作成し、その差分を継続的に送信します(データソースで使用可能な任意のメカニズム(ログ配布やSQL Serverによるデータベースミラーリングなど)を使用します)
- 大量の圧縮アルゴリズムを使用して定期的にバックアップを取ります(データが大きく圧縮されている場合にのみ適している可能性があります)
- データの重要/変更部分の断片的なバックアップを取ります。
- データをバックアップせず、腐敗の神を信頼しないでください。
オプション#4がデフォルトとして採用されており、HA / DRの専門家としては本当に怖いのですが、代わりとして何を勧めますか?#1が最良のアプローチであると思いますが、#4およびおそらく#3以外の代替案が提案された場合、「そうは思わない」が通常の答えです。
さて、もちろん、それはデータの変化率と重要度に依存します。Microsoftで働いていたときにSQL ServerのすべてのHA機能を担当していたので、それに答える必要はありません。したがって、「依存する」引数に精通しています-それが私のキャッチフレーズです:-)
私が見逃した代替案を聞いたり、他の全員が同じボートに乗っていて、より多くのストレージに多額のお金を費やすことに対する現実的な代替案がないことを聞いて、非常に興味があります。
事前に感謝します-すべてのよく考えられ、表明された答えに正当なクレジットが与えられます。