タグ付けされた質問 「backup」

データのコピーを作成して、データの損失が発生した後、または履歴保持のためにコピーを使用して元のデータを復元できるようにする。

9
トランザクションログをバックアップすることがなぜそれほど重要なのですか?
現在、クライアント向けのバックアップソリューションを実装しており、ERPソリューションではSQL Serverを使用しています。 ERPソリューションは別の会社によってセットアップされました。そして、彼らはトランザクションログをバックアップして切り捨てることが非常に重要だと私に言っています。 私はこのトランザクションログを少し読んでいますが、なぜこれがそんなに重要なのか分かりません とにかくマシン全体をすでにバックアップしているときにわかりません(SQL Serverを認識して使用するArcServe UDPを使用していますVSS)。SQL Server VMのクリーンアップタスクが既にログの切り捨てを処理していることは理解していますが、UDPではSQL Serverログの切り捨ても許可されています。 トランザクションログは、すべてのトランザクションのログであるため、破損したデータベースの復元に使用できることを理解しています。しかし、私はすでにデータベース全体の1時間ごとのバックアップを持っているので、なぜ気にする必要があるのでしょうか?

3
保持方法:1週間の毎日のバックアップ、1か月の毎週、1年間の毎月、およびその後の毎年のバックアップ
このサーバー上のデータと構成ファイルを毎日バックアップする必要があります。私は維持する必要があります: 1週間の毎日のバックアップ 1週間の毎週のバックアップ 1年間の月次バックアップ その後の年間バックアップ これらはすべて、cronから毎日実行されるシェルスクリプトによって実現されます。 これは、10年間の実行後のバックアップファイルの外観です。 blog-20050103.tar.bz2 blog-20060102.tar.bz2 blog-20070101.tar.bz2 blog-20080107.tar.bz2 blog-20090105.tar.bz2 blog-20100104.tar.bz2 blog-20110103.tar.bz2 blog-20120102.tar.bz2 blog-20130107.tar.bz2 blog-20130902.tar.bz2 blog-20131007.tar.bz2 blog-20131104.tar.bz2 blog-20131202.tar.bz2 blog-20140106.tar.bz2 blog-20140203.tar.bz2 blog-20140303.tar.bz2 blog-20140407.tar.bz2 blog-20140505.tar.bz2 blog-20140602.tar.bz2 blog-20140707.tar.bz2 blog-20140728.tar.bz2 blog-20140804.tar.bz2 blog-20140811.tar.bz2 blog-20140816.tar.bz2 blog-20140817.tar.bz2 blog-20140818.tar.bz2 blog-20140819.tar.bz2 blog-20140820.tar.bz2 blog-20140821.tar.bz2 blog-20140822.tar.bz2
14 linux  backup  bash 

4
バックアップ中のディスクI / Oを制限するにはどうすればよいですか?
私は基本的に夜に単純な「tar zcf」を行うcronを持っています。 サーバーには次のものがあります。 8コア-Intel(R)Xeon(R)CPU E5606 @ 2.13GHz 25GB RAM Ubuntu 12.04.2 LTS ハードウェアRAID 1(LSI Logic / Symbios Logic MegaRAID SAS SMC2108)と2つの2.728TBハードドライブ 監視画面のホストで確認できるように: http://clip2net.com/s/57YRKP tarのほぼすべての時間で、ディスクI / Oが90%を超え、他のすべてのアプリ(mysql、apache)が非常に遅くなります。 2つの質問: バックアップ中に非常に高いディスクI / Oが発生するのは正常ですか? 他のアプリが正常に動作し続けることができるように、ディスクI / Oを制限する方法はありますか? ありがとうございました!

4
なぜ企業はまだテープドライブを使用しているのですか?[閉まっている]
現在のところ、この質問はQ&A形式には適していません。回答は事実、参考文献、または専門知識によってサポートされると予想されますが、この質問は議論、議論、世論調査、または広範な議論を求める可能性があります。この質問を改善し、場合によっては再開できると思われる場合は、ヘルプセンターをご覧ください。 7年前に閉鎖されました。 私はこれを見つけましたが、それは私の質問に本当に答えていません。 1〜2 TBの範囲のディスクでもテープよりもはるかに安価ですが、Googleはバックアップにテープドライブを使用していることがわかりました。(ディスク)の主な欠点は何ですか?SATAディスクを直接挿入できるソケットの集まりである、ある種のディスク「ライブラリ」を想像できます。
14 backup  tape 

5
btrfs対応のバックアップソリューション
btrfsが今月14日にOracle ELで本番稼働を開始しました(Linux 3.2からfsckとスクラブを実行することで)それを利用するために現在のバックアップソリューションを再設計することを考えていました。10TB未満の少量のデータに対してそれを行うことを考えていることに注意してください。これはかなり静的です(毎日1%未満の変更)。要するにSMB / SOHOバックアップソリューション。 バックアップがすべきこと: 本番サーバーでext [234] / XFS / JFSのLVMスナップショットを作成します rsync/変更されたデータをバックアップサーバー上のbtrfsに転送 btrfsファイルシステムのスナップショット 空き領域が少なくなったときに古いスナップショットを削除する 長所: すべてのファイルが簡単に利用でき、解凍やループマウントは不要 過去のスナップショットも簡単に入手できます... ...そのため、読み取り専用のSamba共有として共有できます(シャドウコピーのサポート付き) コピーオンライトのおかげで、スナップショットのスペースは最小限に抑えられます(変更のないスナップショットは、ディスク上で文字通りほとんどKiBを消費しません) 高いバックアップ一貫性:ファイルのチェックサム、すべてのデータのスクラブ、および組み込みの冗長性 質問: コピーオンライトファイルシステムを認識している、または簡単に作成できるバックアップソリューション(Bacula、BackupPCなどの形式)はありますか? または、ホームrsyncソリューションを使用する必要がありますか? バックアップ専用のZFSボックスを持っている人は、Linuxマシンをバックアップするために何をしますか?

6
予算内でのダウンタイムのないMySQLバックアップ
現在のMySQLバックアップシナリオは、dbを2番目のサーバーに複製し、そのサーバーでmysqldumpを実行して、テーブルまたは行のロックからダウンタ​​イムを削除することです。これはうまく機能していますが、2台目のサーバーの月額は150ドルです(オーストラリアのホスティングは米国よりもはるかに高価です)。 私はこれについて多くの質問をここで読みました。ほとんどの人は、スケジュールされたバックアップの助けが必要です。ダウンタイムなしでmysqldump(4時間ごとが望ましい)が必要です。dbは〜7GB圧縮されていないため、サーバーによってはmysqldumpに時間がかかる場合があります。 同じマシンに複製することを検討しましたが、スレーブが必要なメモリに食い込んで欲しくありません。データベースごとにメモリ使用量を制限できるかどうかわかりませんか?いずれにせよ、これにより、dbのダンプ中にサーバーに負荷がかかります。 私はこれをhttp://www.zmanda.com/quick-mysql-backup.htmlで読んでいますが、見栄えがよく、年間300ドルで十分です。 残念ながら、AmazonのRDSに複製することはできませんが、マイクロRC2インスタンスに複製することはできますが、複製はオーバーネットで行われ、pingは最大220ミリ秒です。 ここで何人かの人々がLVMスナップショットについて話しているのを見ました。これは良い選択肢かもしれません。このオプションについてはあまり知りません。 ご意見をいただければ幸いです。

3
Amazon EC2バックアップ戦略
AmazonのEC2を使用して、いくつかのWebサーバー/ DBサーバーをセットアップしています。現在、すべてのシステムファイルと、アプリケーションファイル、DBファイル、ソースコード、DBバックアップのすべてを含むEBSドライブのスナップショットを毎日取得しています。バックアップの作成をスケジュールに従って実行するコンソールアプリケーションがあります。私の画像はEBS画像です。 数日後にスナップショットをドロップするタスクに取り組んでいます。私の質問は、完全な画像/ EBSタスクもスケジュールする必要がありますか?このように、サーバーに障害が発生した場合や破損した場合、最新のイメージを起動してから最新のスナップショットを適用できます。 バックアップ戦略に取り組んでいるので、Jungle Discを使用してデータディスクをバックアップしています。

7
ストレージサーバーをどのようにバックアップしますか?
私は、いくつかの他のサーバー(すべてLinuxベース)のライブNASとして使用される非常に大きなストレージサーバーの実装を検討しています。 非常に大きいということは、4TBから20TBの使用可能スペースを意味します(実際に20TBにすることはまずありませんが)。 ストレージサーバーは、データのセキュリティとパフォーマンスのためにRAID 10になりますが、オフサイトバックアップを含むバックアップソリューションが必要です。 私の質問は次のとおりです。どのくらいの量のデータをバックアップしますか? ポータブルハードドライブを接続してファイルを転送するだけではいけません。現在、これほどのストレージ容量を持つ他のデバイスはありません。 2番目のオフサイトストレージサーバーに予算を入れる必要がありますか、それともより良いソリューションがありますか?

5
大きなファイルの場合、最初に圧縮してから転送またはrsync -zを実行しますか?どちらが最速ですか?
多数の相対データファイルがありますが、それらは約50 GBを占有し、別のマシンに転送する必要があります。これを行う最も効率的な方法を考えていました。 私が考えていたのは、すべてをgzipしてからrsyncして解凍し、圧縮のためにrsync -zに依存し、gzipしてからrsync -zを使用することでした。rsync -zがどのように正確に実装されているかわからないため、どれが最も効率的かはわかりません。どのオプションが最速かというアイデアはありますか?

5
非常に大きなフォルダー構造の同期
イントラネットには、約800,000個のファイルが約4,000個のフォルダーに分割されたフォルダー構造があります。これをDMZのマシンの小さなクラスターに同期する必要があります。構造の深さは非常に浅い(2レベルを超えない)。 ほとんどのファイルは変更されず、毎日数千の更新されたファイルと1〜2千の新しいファイルがあります。データは、ソースデータが削除された場所で保持されている履歴レポートデータです(つまり、これらはアーカイブされて削除されるほどソースデータが十分に古いファイナライズされたレポートです)。合理的な時間枠で発生する可能性があるため、1日に1回の同期で十分です。レポートは夜間に生成され、午前中にスケジュールされたタスクとして最初に同期します。 明らかに、定期的に変更されるファイルはごくわずかなので、インクリメンタルコピーの恩恵を受けることができます。Rsyncを試してみましたが、「ファイルリストの作成」操作を完了するだけで8〜12時間かかる場合があります。rsyncの能力を急速に上回っていることは明らかです(12時間の時間枠は長すぎます)。 RepliWebという別のツールを使用して構造を同期していましたが、約45分で増分転送を実行できます。ただし、制限を超えたようで、ファイルが削除されていないときにファイルが表示されるようになりました(おそらく、内部メモリ構造が使い果たされたのかどうかはわかりません)。 他の誰かがこの種の大規模な同期プロジェクトに遭遇しましたか?同期のためにこのような大規模なファイル構造を処理するように設計されたものはありますか?

11
オフサイトのハードドライブバックアップはどのように行いますか?
私はしばらくの間、ハードドライブのバックアップを行ってきましたが、多くの人も同様だと思いますが、オフサイトに保存するより良い方法を見つけるのに苦労しています。君たちはどうやってそれをしているのだろうかと思っている。バックアップをオフサイトに保存する際のポリシーやヒント、トリック(主にテープではなくハードドライブ)。 前もって感謝します。 [更新]オンラインバックアップについてお問い合わせいただきありがとうございます。私たちは実際にこのプロセスの最中です。そして、私はそれが究極の道であることに100%同意します。ただし、コストを考慮すると、アプリケーションレベルも考慮すると非常に高価なオプションであるため、オプションではない場合があります。別のトピックでは、オンラインバックアップが非常に優れたものになると思います。:)
14 backup 

5
RSYNCはどのように増分バックアップを行いますか
どのrsyncファイルが変更され、どのファイルが変更されていないかをどのようにして知るのですか?ファイル内のどこかにデータを記録しますか? 増分バックアップを行いたいのですが、最初にすべてのファイルを転送します。 したがって、私の主な質問は、初期ファイルをFTPではなくFTP経由でアップロードするかどうかrsyncです。ウィルはrsyncまだ、これらの既存のファイルをスキップするか、それが最初の実行上のすべてをアップロードします。
14 backup  rsync  sftp 

19
Windowsネットワークを介して大きなファイルを転送する最も簡単で最速の方法は何ですか?
20 GBを超えるデータを保存するMS SQL Serverを実行しているWindow Server 2000マシンがあります。データベースは毎日2番目のハードドライブにバックアップされます。これらのバックアップファイルを別のコンピューターに転送して、別のテストサーバーを構築し、回復を練習したいと思います。(バックアップは実際にはほぼ5年間復元されませんでした。そのことを上司に伝えないでください!) その巨大なファイルをネットワーク経由で転送するのに問題があります。プレーンネットワークコピー、Apacheダウンロード、およびftpを試しました。転送したデータの量が2GBに達すると、私が試した方法はすべて失敗します。最後にファイルを正常に転送したのは、USB接続の外付けハードドライブを介してでした。しかし、私はこのタスクを定期的に、できれば自動的に実行したいです。 この状況で最も実用的なアプローチは何ですか?

2
Gitlabを大規模にバックアップするには?
オンプレミスのGitlabで3TBのバックアップを行う方法についてGitlabのサポートに尋ねるとき、彼らはtarballを生成するツールを使用して返信します。 これはすべてのレベルで間違っているように思えます。このtarballには、postgresダンプ、dockerイメージ、リポジトリデータ、GIT LFSなどの構成などが含まれています。KBの非常に動的なデータと一緒にTBの静的データをバックアップすることは適切ではありません。そして、1時間ごとにバックアップを取りたいという問題があります。 質問 一貫性のあるバックアップを取得するために、他の人からどのようにそれを行っているのかを本当に知りたいです。 Linux上のZFSは、それがソリューションの一部であるなら、私にとっては問題ないでしょう。

3
postgreSQLが機能しない.pgpass
/folder/.pgpassに.pgpassファイルを配置しましたが、次のようになります *:*:*:postgres:password_for_postgres postgreSQLからデータベースをバックアップするbashスクリプトがあります。 #!/bin/bash export PGPASSFILE=/folder/.pgpass echo $PGPASSFILE pg_dump --username=postgres --format=c --file=/backup/db/db.sqlc database ただし、スクリプトはまだパスワードを要求します。私が見る限り、PGPASSFILEにはあるべき値があります。問題が何であるかについてのヒントはありますか? / K

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.