タグ付けされた質問 「backup」

データのコピーを作成して、データの損失が発生した後、または履歴保持のためにコピーを使用して元のデータを復元できるようにする。

12
ペタバイトのデータをバックアップして保存する良い方法はありますか?
(SQL Serverのインストールで)数百テラバイトのデータを持つクライアントを見始めています。一部の企業のデータの総量がペタバイトの意味のある部分に近づくと、その規模のデータを扱う人々がそれを保護するために何をしているのかを知るために、集合的な知識ベースを調べたいと思います。 明らかな問題は、その量のデータの複数のバックアップを保存することは、エンタープライズクラスのストレージを使用して、非常に高価なことです。 表示されるオプションは次のとおりです。 別のデータセンターにデータのミラーコピーを作成し、その差分を継続的に送信します(データソースで使用可能な任意のメカニズム(ログ配布やSQL Serverによるデータベースミラーリングなど)を使用します) 大量の圧縮アルゴリズムを使用して定期的にバックアップを取ります(データが大きく圧縮されている場合にのみ適している可能性があります) データの重要/変更部分の断片的なバックアップを取ります。 データをバックアップせず、腐敗の神を信頼しないでください。 オプション#4がデフォルトとして採用されており、HA / DRの専門家としては本当に怖いのですが、代わりとして何を勧めますか?#1が最良のアプローチであると思いますが、#4およびおそらく#3以外の代替案が提案された場合、「そうは思わない」が通常の答えです。 さて、もちろん、それはデータの変化率と重要度に依存します。Microsoftで働いていたときにSQL ServerのすべてのHA機能を担当していたので、それに答える必要はありません。したがって、「依存する」引数に精通しています-それが私のキャッチフレーズです:-) 私が見逃した代替案を聞いたり、他の全員が同じボートに乗っていて、より多くのストレージに多額のお金を費やすことに対する現実的な代替案がないことを聞いて、非常に興味があります。 事前に感謝します-すべてのよく考えられ、表明された答えに正当なクレジットが与えられます。

4
SQL Server 2008でバックアップからインデックスを除外する方法
夜間のフル(および定期的な差分)バックアップは、主にテーブルのインデックスの量が原因で非常に大きくなっています。バックアップサイズの約半分がインデックスで構成されています。 バックアップには単純復旧モデルを使用しています。 どのような方法は使用して、そこにあるFileGroupsために、またはいくつかの他のファイルの分割方法除外バックアップからインデックスを? これをフルテキストカタログにも拡張できると便利です。

5
SQL Serverのライブバックアップ中はどうなりますか?
同僚の何人かは、SQL Serverデータベースがまだ実行されている間にバックアップできると言って驚いたのですが、それがどのように可能か疑問に思いました。SQL Serverがデータベースをオンラインのままバックアップできることは知っていますが、なぜそれが可能かを説明する方法はわかりません。私の質問は、これがデータベースにどのような影響を与えるかです。 バックアップの実行中にデータが(挿入、更新、または削除によって)変更された場合、バックアップにはそれらの変更が含まれますか、それともその後データベースに追加されますか? ここではログファイルが重要な役割を果たしていると考えていますが、その方法はよくわかりません。 編集:ちょうどメモとして、私の場合は、SQL Serverエージェントを使用してデータベースをバックアップすることと、このプロセス中のデータベース変更の影響を伴います。

4
Time Machineは何をしていますか?
OS Xから、「バックアップの準備中...」と非常に長い時間言われることがあります。所要時間は、バックアップするデータの量と相関関係がないようです。「バックアップの終了...」ステージでも同じです。 質問:「バックアップの準備中...」および「バックアップの終了中...」の場合、OS Xは何をしますか? 何をバックアップしてから変更を記録するのかを知っていますが、これにかかる時間は変更されたデータの量に比例するはずです。十分な空きディスクスペースがあります(したがって、古いバックアップを削除していないと思います)。何らかの違いが生じる場合は、TimeCapsuleを使用しています。何も問題はありません。ただ興味があります。

3
バージョン管理、テスト、継続的統合/展開などの開発プラクティスをシステム管理にどのように適用しますか?
多数の人々が使用するさまざまなサービスを備えた多数のサーバーを管理するとします。次に、これらのサーバーのいずれかでソフトウェアを再構成または交換したいとします。明らかに、実稼働中のサーバーで作業する必要はありません。 これがコード変更である場合、開発者として、ローカル開発マシンで変更を行い、ローカルでテストして、バージョン管理システムに変更をコミットします。その後、変更をステージング環境に展開し、さらにテストして、最終的に本番環境に展開できます。また、必要に応じて簡単にロールバックできます。 一般的に、または具体的に、システム管理でこれをどのように達成しますか? (最初に頭に浮かぶのは、仮想マシンを使用してバージョン管理に仮想マシンイメージを配置することですが、私が現在知らない多くの文献と賢い解決策があると確信しています。)

3
RDXリムーバブルディスクはLTOテープの適切な代替品ですか?
3週間にわたって、クライアントサイトでLTO-1およびLTO-2テープドライブの6つの完全な障害が発生しました。失敗したメカニズムもありました。他のユーザーは、信頼性の高い書き込み機能を失いました。これらは、HP Ultrium 232、448、および460ドライブでした。これらのユニットのほとんどは2006年から2008年の間に配備されたため、障害のタイミングは適切です。容量(400GB)はアプリケーションに適しています。一貫性を保つために、いくつかのドライブを同等のデバイスに交換しました。また、1台のサーバーでSCSI HBA障害が発生し、復旧がさらに遅れました。その時点で、顧客は、テープよりも優れた(またはそれほど洗練されていない)利用可能なハードディスクソリューションがあるかどうかを尋ねました。 交換品を探し始めたとき、RDXリムーバブルディスクストレージテクノロジーが主要なサーバーメーカー(HP、Dell、IBM)に採用されていることを発見しました。私の観点からは、最大1TBの容量でUSB2を介して内部または外部に接続された2.5インチSATAディスクがドッキングされているように見えます。実際の技術。 ここの誰かがこれらのドライブを成功裏に使用していますか?気をつけるべきことはありますか? RDXとストレート外部USBディスクの違いは何ですか? 私のアプリケーションでのテープの利点の1つは、ドライブにハードウェア圧縮機能があることです。これは、Linuxシステムでバックアップする必要がある高圧縮データセットに非常に役立ちます。RDXがソフトウェア圧縮に依存していると仮定するのは正しいですか? これらは物理ディスクであるため、LinuxまたはWindowsにマウントポイントの問題はありますか?テープの良い点の1つは、マウントされたファイルシステムではなく、通常、ウイルス、ルートキット、システムクラッシュなどの影響を受けないことです。 また、私はRDXを使用してプライマーを見サボテンローン・タール、と私はそれらを見たときにひれ伏し使用mkfsでRDXドライブ上のファイルシステムを作成するコマンドを/dev/sda。デバイスの名前変更/並べ替え(SCSIコントローラーの追加、USBキーの挿入など)の可能性はありますか、またはドッキングユニットはドライブの交換時に特定のデバイス名で保持されますか? 30メガバイト/秒のバックアップ速度は正確ですか? これは興味深い代替手段になる可能性があるため、興味があります。テープドライブの一連の障害は、先に進む前に他のオプションを再評価することが理にかなっているときに発生しました。

1
不良セクタから「破損したファイル」まで-Linux / ext3でしたか、Windows / NTFSでもできますか?
ディスクのSMARTチェックで不良セクターが報告された場合、不良セクターのあるファイルを特定し、バックアップから復元できることが重要です。以下に、Linux / ext3 VMWAREサーバーでこれをどのように実行したかを示しますが、Windows / NTFSでこれを実行できるかどうかは誰にもわかりませんか? Linux / ext3の場合は、次のようになりました。最初に、ハードウェアの表面スキャンを実行するようにドライブに要求しました(OSレベル未満で、オンドライブのSMART回路を使用)。 vserver:~# smartctl -t long /dev/sdc 私は結果を見ました: vserver:~# smartctl -a /dev/sdc ... 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 1 197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 9 ... Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended …
17 backup  ntfs  ext3  bad-blocks 

2
二重化された完全バックアップの寿命と効率
私はいくつかのクライアントのバックアップ戦略を立てようとしていますが、リモートバックアップの重複に傾いています(すでに内部/オンロケーションバックアップにはrdiff-backupを使用しています)。 完全なバックアップを頻繁に行うことは妥当ですか?重複は順方向に増分するため、各増分バックアップは前の増分に依存しており、すべてが最後の完全バックアップに大きく依存しています。それが破損すると、悪いことが起こります。関連する質問:Duplicityは増分バックアップの一貫性をテストしますか? 頻繁に完全バックアップが必要だと仮定すると、複製によってその完全バックアップがどの程度効率的に作成されますか?ファイルの署名をチェックし、以前の完全バックアップ/増分から変更されていないデータをコピーできますか?基本的に、新しい/変更されたデータを転送し、既存の変更されていないデータをマージする新しい「フル」アーカイブを作成しますか? 現時点では、フルバックアップを実行する必要があるのではないかと心配していますが、フルバックアップを一貫して大帯域幅で使用するため、一部のクライアントではこれが不合理になります。

12
バックアップサーバーでRAIDを使用する必要がありますか?
バックアップサイズがテープ容量を超えているため、テープではなくハードディスクに保存するSymantec Backup Execを使用して、新しいバックアップサーバーをセットアップするように求められました。 「バックアップ」であるため、バックアップサーバーがあらゆる種類のRAIDを実行するのに本当に意味があるのか​​、それとも利点があるのか​​と思いました。 私にとっては、追加コストを正当化するメリットはそれほど大きくありません。 他の人の意見を見てみたいです。 ありがとう!
17 backup  raid 

11
Rsyncを使用して外部ドライブにバックアップする
私は家のコンピューターをバックアップするために外付けハードドライブを購入しています(最終的に!!)。rsyncを使用したいと思っています。私が望むものを正確に実行する(または実行するように見える)例を見てきました。このようなもの: rsync -aE --delete /path/to/what/I/want/to/backup /Volumes/FW200/Backups しかし、rsyncのドキュメントや例などを見ると、事態はそれよりもずっと複雑に見え始めました。ネットワーキングとデーモンと専門用語、おっと! コンピューターからファイアワイヤー接続された外部ドライブに再同期している限り、そのようなものは必要ないと仮定しています。私はそれを仮定するのは間違っていますか?物事は本当にその無害なコマンドよりも複雑になるでしょうか?
17 backup  rsync 

9
バックアップ戦略としてのLVMスナップショット
バックアップ戦略として、xen domUの定期的なLVMスナップショットはどの程度実行可能でしょうか?長所、短所、落とし穴はありますか? 私にとっては、ブレインレスの高速復元に最適なソリューションのようです。中断したことなくdomUが正常に実行されている状態で、破損した論理ボリュームで調査を行うことができます。 編集: システムの完全バックアップを行うとき、私は今ここにいます。 domUディスクのlvmスナップショット サイズがスナップショットのサイズに等しい新しい論理ボリューム。 dd if = / dev / snapshot of = / dev / new_lv lvremoveを使用したスナップショットの破棄 kpartx / mount / lsによるオプションの検証 次に、これを自動化する必要があります。
17 backup  xen  lvm 

7
inotifyを使用する実用的なLinuxバックアップソリューションはありますか?
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 バックアップには永遠に時間がかかります。btrfsまたはZFSを信頼して増分スナップショットをバックアップする前に、inotifyを使用して実際に変更されたファイルを追跡し、バックアップをより速く実行するデーモンがあると便利ではないでしょうか?このプログラムはどこにありますか? 毎回ファイルシステム全体をクロールせずにLinuxボックスをバックアップするにはどうすればよいですか?新規または変更された写真、ソースコードなどを検出し、NASにコピーするためにそれらをキューに入れるプログラムが必要です。
17 linux  backup  inotify 


8
スタンドアロンのESXiホストで仮想マシンをバックアップする方法は?
vCenter ServerなしのスタンドアロンESXi(4.1)ホスト。 仮想マシンをできるだけ早く、ストレージに優しい方法でバックアップする方法は? ESXiコンソールにアクセスして標準のUnix cpコマンドを使用できることは知っていますが、これには実際に使用されているスペースだけでなく、VMDKファイル全体をコピーするという欠点があります。したがって、1 GBのみが使用される30 GB VMDKの場合、バックアップには30 GBのスペースが必要であり、それに応じて時間がかかります。 はい、私はシンプロビジョニングされた仮想ディスクについて知っていますが、物理的にコピーされると非常に悪い動作をする傾向があります。また、実際のVMパフォーマンスには推奨されません。 バックアップする前にVMをシャットダウンしても構いません(つまり、「ライブ」バックアップは必要ありません)。しかし、それらを効率的にコピーする方法が必要です。はい、バックアップを取るときにシャットダウン/起動を自動化する方法も役立ちます。 ESXiしかありません。サービスコンソールもvCenter Serverもありません...このタスクを処理する最良の方法は何ですか?また、復元についてはどうですか?

3
Amazon S3に保存されたデータのバックアップ
ユーザーのアップロードファイルをS3に保存するWebサーバーを実行しているEC2インスタンスがあります。ファイルは一度書き込まれ、変更されることはありませんが、ユーザーによって時々取得されます。年間約200〜500 GBのデータが蓄積される可能性があります。特に誤って削除した場合に、このデータの安全性を確保し、理由に関係なく削除されたファイルを復元できるようにしたいと考えています。 S3バケットのバージョニング機能について読んだことがありますが、変更履歴のないファイルのリカバリが可能かどうかはわかりません。バージョン管理については、AWSのドキュメントを参照してください。 http://docs.aws.amazon.com/AmazonS3/latest/dev/ObjectVersioning.html これらの例では、データがアップロードされるが、決して変更されずに削除されるシナリオは示していません。このシナリオで削除されたファイルは回復可能ですか? 次に、オブジェクトライフサイクル管理を使用してS3ファイルをGlacierにバックアップするだけでよいと考えました。 http://docs.aws.amazon.com/AmazonS3/latest/dev/object-lifecycle-mgmt.html ただし、ファイルオブジェクトはGlacierにコピーされず、Glacierに移動されるため、これは機能しないようです(より正確には、オブジェクト属性が変更されているようですが、とにかく...)。 そのため、S3データを直接バックアップする方法はないようで、S3からローカルサーバーへのデータの転送には時間がかかり、時間が経つとかなりの転送コストが発生する可能性があります。 最後に、毎月新しいバケットを作成して毎月の完全バックアップとして使用し、1日目に元のバケットのデータを新しいバケットにコピーすることを考えました。次に、duplicity(http://duplicity.nongnu.org/)バックアップバケットを毎晩同期します。月末に、バックアップバケットの内容をGlacierストレージに配置し、元のバケットの新しい現在のコピーを使用して新しいバックアップバケットを作成し、このプロセスを繰り返します。これは機能し、ストレージ/転送コストを最小限に抑えるように見えますが、重複がバケットからバケットへの転送を許可するかどうかはわかりませんが、最初に制御クライアントにデータをダウンさせることはありません。 ですから、ここにはいくつか質問があります。まず、S3のバージョン管理では、変更されていないファイルを回復できますか?S3からGlacierにファイルを「コピー」する方法はありますか?重複または他のツールは、転送コストを回避するためにS3バケット間でファイルを直接転送できますか?最後に、S3データのバックアップへのアプローチで基準を外れていますか? ご意見をお寄せいただきありがとうございます! 更新 Amazonは最近、バージョニングがライフサイクルルールで動作するようになったことを発表しました

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.