タグ付けされた質問 「corruption」

13
エラー0x80070570:破損した読み取り不能なファイルを削除する方法
システムパーティションに、削除できないフォルダーがあります。このフォルダーは、Acronis TrueImageバックアップからファイルを復元することにより作成されました。 エラーメッセージは言う: エラー0x80070570:ファイルまたはディレクトリが破損しており、読み取れません。 chkdsk /r /f起動時に何度か実行しようとしましたが、問題は解決しません。 この問題を修正しようとする他のユーティリティやchkdskオプションはありますか?

7
MySQLテーブルを強制的に破損させるにはどうすればよいですか?
mysqlcheck(破損したテーブルをチェックする)を呼び出し、破損している場合は警告を出す単純なNagiosプラグインを作成しました。 ただし、現在、私のテーブルは破損していません。したがって、プラグインが正常に動作していることを100%確信することはできません。ミスオンクリティカルではない開発サーバーがあります。nagiosアラートをテストできるように、テーブルの1つ(またはいずれか)を強制的に破損させるにはどうすればよいですか? 記録の場合、サーバーはUbuntu Dapperで、mysqlはバージョン5.0です

1
fsckでデータ破損の警告を解決できません
ファイルシステムが成長するための連続したスペースを作成するために、sda1に新しいEFIシステムパーティションを作成し、sda5の現在のパーティションから移行できるようにしました。次のような警告を除いて、移動自体は成功しています。 カーネル:FAT-fs(sda1):ボリュームは適切にアンマウントされませんでした。一部のデータが破損している可能性があります。fsckを実行してください。 最初にEFIパーティションを作成したとき、2日間警告が表示されていませんでした。ファイルシステムをアンマウントし、次のようにファイルシステムチェックを実行しました。 # umount /dev/sda1 # fsck -V /dev/sda1 fsck from util-linux 2.24 [/sbin/fsck.vfat (1) -- /boot/efi] fsck.vfat /dev/sda1 fsck.fat 3.0.24 (2013-11-23) 0x25: Dirty bit is set. Fs was not properly unmounted and some data may be corrupt. 1) Remove dirty bit 2) No action ? 1 Leaving filesystem …

3
電力損失による破損からSSDを保護する方法はありますか?
Linux、ローカルWebサーバー、およびPostgreSQLがインストールされたコンシューマターミナルのグループがあります。問題のあるマシンのフィールドレポートを取得していますが、調査の結果、停電が発生したようで、ディスクに何か問題があるようです。 私は、問題は単にデータベースが破損すること、または最近の変更を含むファイルがスクランブルされることであると考えていましたが、他の奇妙な報告があります。 間違った許可を持つファイル ディレクトリになったファイル(たとえば、index.php現在はディレクトリ) ファイルになったディレクトリ スクランブルされたデータを含むファイル データベースが破損する問題がありますが、それは私が期待できることです。私がもっと驚いたのは、より基本的なファイルシステムの問題です。たとえば、アクセス許可やファイルをディレクトリに変更することです。問題は、最近変更されていないファイル(ソフトウェアコードや構成など)でも発生しています。 これはSSD破損の「正常」ですか?もともとは安価なSSDで起こっていると思っていましたが、有名ブランド(消費者グレード)で起こっています。 FWIW、クリーンブートではautofsckを実行していません(理由はわかりませんが、私は新しいです)。一部の場所にはUPSが設置されていますが、場合によっては適切に実行されないなどがあります。これは修正する必要がありますが、それでも端末の電源を落とすことができます。ファイルシステムはext4です。 質問:システムレベルで問題を軽減するためにできることはありますか? ハードウェアキャッシュをオフにするか、同期モードでドライブをマウントすることに関する記事をいくつか見つけましたが、この場合に役立つかどうかはわかりません(メタデータの破損と最近の変更ではありません)。また、読み取り専用モードでのファイルシステムのマウントに関するリファレンスも読んでいます。書き込む必要があるため、これを行うことはできませんが、それが役立つ場合は、コードと構成用の読み取り専用パーティションを作成できます。 これはドライブの例ですsudo hdparm -i /dev/sda1: Model=KINGSTON RBU-SMS151S364GG, FwRev=S9FM02.5, SerialNo=<deleted> Config={ Fixed } RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=0 BuffType=unknown, BuffSize=unknown, MaxMultSect=16, MultSect=16 CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=125045424 IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120} PIO modes: pio0 pio3 pio4 DMA modes: mdma0 mdma1 mdma2 UDMA modes: udma0 …


4
Mercurialリポジトリの破損
これはこの質問に多少関係していますが、別の質問です。 中央のHgリポジトリがあり、SSHとmercurial-serverを介してユーザーに提供されます。多くのMac、Linux、Windowsクライアントが接続しています。 Windowsユーザーの1人がリポジトリを破損し、中央のリポジトリに押し戻して破損したため、2回発生しました。中央リポジトリに着信フックスクリプトを記述して、中央リポジトリが破損する場合にトランザクションが受け入れられないようにします。 残念ながら、私はMercurialについてそのようなスクリプトを書くのに十分な知識がありません。他の誰かがこれに遭遇した可能性はありますか?個人的には、デフォルトでhgがこれを行わない理由はよくわかりません。

4
どうやらRobocopyはWindows Server 2016の重複排除を理解していないようです。ボリュームを破損せずに機能させる方法はありますか?
シナリオ: このサーバーフォールトガイド:Robocopyを使用したファイルサーバーの移行に従って、古いサーバー2008 R2から新しいサーバー2016 へのサーバー移行を行う Robocopyが完了したら、コピーされたボリュームのServer 2016で重複排除を有効にしてから、PowerShellを使用して手動で重複除去を開始します。数時間後に完了し、ディスク容量の約25%を回復します。 Robocopyを再度実行して、新しいサーバーの最終チェックとして、最初のコピーで欠落した可能性のあるものをすべてコピーします。 ....ただし、Robocopy(Server 2016から実行)は重複排除を理解していないため、重複排除チャンクストアを破棄します。 ------------------------------------------------------------------------------- ROBOCOPY :: Robust File Copy for Windows ------------------------------------------------------------------------------- Started : Sunday, July 8, 2018 12:10:02 PM Source : \\SERVER-2008\e$\ Dest : \\SERVER-2016\e$\ Files : *.* Options : *.* /TEE /S /E /COPYALL /PURGE /MIR /ZB /NP /MT:32 /R:1 /W:10 ------------------------------------------------------------------------------ …

4
電源がランダムに切断されるマシンにデータを保存する方法
物理マシンホストで実行されている仮想マシン(Debian)があります。仮想マシンは、ローカルネットワークを介して頻繁に受信するデータのバッファーとして機能します(このデータの期間は0.5秒であるため、かなり高いスループットです)。受信したデータはすべて仮想マシンに保存され、UDPを介して外部サーバーに繰り返し転送されます。外部サーバーが(UDPを介して)データパケットを受信したことを確認すると、元のデータは仮想マシンから削除され、外部サーバーに再度送信されません。VMと外部サーバーを接続するインターネット接続は信頼性が低いため、一度に数日間ダウンする可能性があります。 VMをホストする物理マシンは、ランダムに1日に数回、電源が切断されます。これがいつ発生するかを知る方法はなく、UPS、バッテリー、または同様のソリューションをシステムに追加することはできません。 元々、データは仮想マシン上のファイルベースのHSQLDBデータベースに保存されていました。しかし、頻繁に電源が切れると、最終的にデータベーススクリプトファイルが破損します(ファイルシステムレベルではなく、つまり読み取り可能ですが、HSQLDBは​​それを理解できません)。これが私の質問につながります。 停電が頻繁に発生する可能性がある環境で、データをどのように保存する必要がありますか? 考えられるオプションの1つは、フラットファイルを使用して、データの各パケットをファイルシステム上のファイルとして保存することです。この方法では、電力が失われたためにファイルが破損した場合、それは無視でき、残りのデータはそのまま残ります。ただし、これにはいくつかの問題があり、主に仮想マシンに保存される可能性のあるデータの量に関連しています。各データ間の0.5秒で、10日で1,728,000個のファイルが生成されます。これは、少なくとも、iノード数を増やしたファイルシステムを使用してこのデータを保存することを意味します(現在のファイルシステムのセットアップでは、メッセージが250,000で、使用ディスク容量が30%のiノードが不足しています)。また、管理するのは難しい(不可能ではない)。 他のオプションはありますか?Debianで動作するデータベースエンジンのうち、停電によって破損しないものはありますか?また、これにはどのファイルシステムを使用する必要がありますか?ext3は現在使用されているものです。 仮想マシンで実行されるソフトウェアはJava 6を使用して記述されているため、ソリューションに互換性がないことを願っています。

4
-9を殺したり、電源を切ったりすると、*正確に*ねじ込まれますか?
セットアップ 私はかなり長い間プログラマーでしたが、深い内部的なものについてはまだ少し曖昧です。 今。次のいずれかを行うことはお勧めできません。 kill -9プロセス(悪い) 実行中のコンピューターまたはサーバーの電源プラグを自発的に引きます(さらに悪い) ただし、必要な場合もあります。プロセスが何をしても反応しない場合もあれば、コンピューターが何をしても反応しない場合もあります。 mod_wsgiを介してApache 2、MySQL 5、PHP 5、およびPython 2.6.5を実行しているシステムを想定します。 注:ここではMac OS Xに最も興味がありますが、UNIXシステムに関係する答えがあれば役立ちます。 私の懸念 これらのいずれか、特に2番目のいずれかを行う必要があるたびに、何かが壊れていることをしばらく心配しています。どこかのファイルが破損している可能性があります。誰がどのファイルを知っているのでしょうか?コンピューターには1,000,000以上のファイルがあります。 OS Xを頻繁に使用しているため、ディスクユーティリティを使用して「ディスクの検証」操作を実行します。問題は報告されませんが、私はまだこれについて心配しています。 構成ファイルがどこかでめちゃくちゃになった場合はどうでしょう。さらに悪いことに、どこかのバイナリファイルが破損している場合はどうでしょう。または、スクリプトファイルがどこかに破損しています。一部のハードウェアが破損した場合はどうなりますか? 破損または損傷が大惨事を引き起こす重大なシナリオで、来月までそれを見つけられない場合はどうなりますか? または、貴重なデータがすでに失われている場合はどうなりますか? 私の希望 私の希望は、これらの懸念と心配に根拠がないことです。結局、これを何度も繰り返した後、本当に悪いことは何も起きていません。最悪の場合、いくつかのMySQLテーブルを修復する必要がありますが、データを失っていないようです。 しかし、私の心配が根拠がなく、実際の損害が状況1または2のいずれかで発生する可能性がある場合、それを検出してそれを防ぐ方法があることを望みます。 私の質問 これは、最新のオペレーティングシステムがこれらのシナリオで何も失われないように設計されているためでしょうか?これは、最新のソフトウェアが何も失われないように設計されているためでしょうか?最新のハードウェア設計はどうですか?電源プラグを抜くとき、どのような対策がとられていますか? 私の質問は、これらのシナリオの両方のために、何をされて正確に間違って行くことができ、そしてどのような手順は、それを修正するために取られるべきですか? 私が間違っている可能性があるのは、いくつかのプログラムがデータをディスクにフラッシュしていない可能性があるため、ディスクに書き込まれるはずの非常に最近のデータ(たとえば、電源を切る数秒前) )失われる可能性があります。しかし、それ以上はどうですか?そして、5秒のデータ損失というまさにこの問題がシステムを台無しにしてしまうのでしょうか? ハードドライブ上の巨大なファイルフォレストのどこかに隠れているランダムファイルの破損はどうですか? ハードウェアの損傷はどうですか? 私に最も役立つもの プロセスを強制終了するか、システム全体の電源を入れると、内部で何が起こるかについての詳細な説明。(インスタントのようですが、誰かがそれを遅くすることはできますか?) これらのシナリオでうまくいかない可能性のあるすべての説明と、(もちろん)確率(つまり、これは非常にまれですが、これはそうです) これらのシナリオが発生した場合の損傷または破損を防ぐための、最新のハードウェア、オペレーティングシステム、およびソフトウェアで実施されている対策の説明。(私を慰めるために) 「ディスクの検証」を超えて、キル-9または電源を切った後、ドライブのどこかに何も破損または損傷がないことを本当に確認するための手順。 コンピューターのセットアップを強化して、何かを殺したり、電源を抜かなければならない場合に発生する可能性のある損害を軽減するために講じることができる対策。 バイナリファイルに関する情報-apacheバイナリファイルまたはライブラリの途中でランダムなバイトまたはランダムなバイトが破損している可能性がありますが、それは後になって問題を引き起こすことはありませんか?これがパワープルまたはキルの結果として発生したのではないことをどのように確認できますか? 本当にありがとう!

2
SDカードの破損防止
私の組み込みLinuxデバイスは、特定の診断データを保存するためにSDカードを使用しますが、内部フラッシュにはあまりにも多すぎます。 問題は、デバイスの電源が予期せずオフになった場合、カードのファイルシステム(FAT32)が破損することです。 予期しない停電やユーザーがそのように電源を切ることを防ぐ方法はなく、デバイスは比較的メンテナンスフリーである必要があります。さらに悪いことに、データは継続的に書き込まれるため、破損は非常に頻繁に発生し、Linuxは障害のあるFSを検出すると、読み取り専用でサイレントに再マウントします。 これを軽減するためにどのような方法を提案しますか?起動時にfsck.vfatを自動的に実行するだけで十分ですか? 詳細情報: ユーザーがカードを取り外し可能と見なさないでください。それは内部ディスクと考える必要があります。その上に保存されたデータはすべて、ネットワーク経由またはusbドライブ経由でダウンロードできるようになり、システムは自動的に最も古いエントリを削除します。つまり、平均的なPCで読み取る必要はありません。 システムは現在、FAT、yaffs、jffs2をサポートしています。カーネルに他のファイルシステムを追加することは可能ですが、他の手段が存在する場合は、最初にそれらを優先します。 書き込みは、データ損失なしで数分間でもオンデマンドで中断できます。 部分的なデータ損失または軽微な破損は許容されます。ロギングの完全な停止はそうではありません。 ほとんどの場合、電源オフイベントは完全に予測不能です。 システムはARM9、200MHZ、64MB RAM、32MBの内部フラッシュで実行されており、主な役割のためにCPUパワーのほとんどを使い果たします。凝ったリソースを大量に使用するソリューションを検討する際には、これを考慮してください。

4
(比較的)大きなファイルのrsyncでの破損パケットエラーを修正する方法
rsync次のコマンドを使用して、サーバー上のファイルを更新しようとしています: rsync -ravq -e "ssh -o ConnectTimeout=2 -o ServerAliveInterval=2 -ServerAliveCountMax=2" --delete ./local_dir user@$SERVER:/dest_dir corrupt packet エラーがスローされ続けます、具体的には: rsync: writefd_unbuffered failed to write 4092 bytes to socket [sender]: Broken pipe (32) rsync: connection unexpectedly closed (11337 bytes received so far) [sender] rsync error: unexplained error (code 255) at /home/lapo/package/rsync-3.0.9-1/src/rsync-3.0.9/io.c(605) [sender=3.0.9] ssh大きな(r)ファイルで発生するように思われるため、これはおそらくタイムアウトに関連しています。また、WinSCPを使用してタイムアウトが発生し続けます。これは私だけに起こっています。このサーバーを使用している私と一緒に働く人々の何人かは同じ問題を抱えていません。 rsyncCentos …

4
nginx + fastCGI + Django-クライアントに送信された応答のデータ破損を取得
FastCGIを使用してnginxの背後でDjangoを実行しています。クライアントに送信された応答の一部で、ランダムなデータ破損が応答の途中で発生していることを発見しました(途中で数百バイト程度になる可能性があります)。 この時点で、私はそれをnginxのFastCGIハンドラーまたはDjangoのFastCGIハンドラーのバグ(つまり、おそらくflupのバグ)に絞り込みました。スタンドアロン(つまりrunserver)モードでDjangoサーバーを実行すると、この問題は発生しないためです。FastCGIモードでのみ発生します。 その他の興味深い傾向: より大きな応答で発生する傾向があります。クライアントが初めてログインすると、1 MBのチャンクがサーバーDBに同期するために送信されます。最初の同期後、応答ははるかに小さくなります(通常、一度に数KB)。破損は常に、最初に送信された1MBのチャンクで発生しているようです。 これは、クライアントがLANを介してサーバーに接続されている場合(つまり、低遅延、高帯域幅接続)に頻繁に発生します。これにより、nginxまたはflupには、データレートの増加によって悪化するある種の競合状態があると思います。 現時点では、応答ヘッダーにSHA1ダイジェストを追加し、ヘッダーが本文のチェックサムと一致しない場合にクライアントに応答を拒否させることで、これを回避する必要がありましたが、これは恐ろしい解決策の一種です。 他の誰かがこのようなことを経験しましたか、または適切なチームにバグを報告できるように、ここで問題があるのがflupであるかnginxであるかを識別する方法に関する指針がありますか? 助けてくれてありがとう。 注:私も同様にlighttpd + FastCGI + Djangoに同様のバグを投稿しました:https : //stackoverflow.com/questions/3714489/lighttpd-fastcgi-django-truncated-response-sent-to-client-due-to -予期しない ...これは同じことではありませんが(切り捨てvs破損)、一般的な原因はWebサーバーではなくflup / Djangoであるように見え始めています。 編集:私の環境もメモする必要があります: Mac Mini上のOSX 10.6.6 Python 2.6.1(システム) Django 1.3(公式のtarballから) flup 1.0.2(flupサイトのPython eggから) nginx + ssl 1.0.0(Macportsから) 編集:Jerzykのコメントに応じて、応答を組み立てるコードパスは次のようになります(簡潔にするために編集されています)。 # This returns an objc NSData object, which is an array.array # when pushed …

2
停電時のext4 / Linuxドライブでのデータ破損を防止
私は、OSとしてlinuxを組み込んだAmerican Megatrends biosを実行する組み込みボードをいくつか持っています。私が抱えている問題は、産業用フラッシュIDEが電力損失で破損することです。私はそれらをext4としてフォーマットしています。これが発生するときはいつでも、通常fsckでフラッシュを修正できますが、私たちの展開ではこれは不可能です。書き込みキャッシュを無効にすると効果があると聞きましたが、その方法がわかりません。また、他に何かすべきことはありますか? より詳しい情報 ドライブは4GB IDEフラッシュモジュールです。ext4のパーティションが1つあります。OSはそのパーティションにインストールされ、grubは私のブートローダーです。 fdisk -lは/ dev / sdaをフラッシュモジュールとして表示し、/ dev / sda1をプライマリパーティションとして表示します。 停電後は、通常、起動初期化スクリプトで完全に行うことはできません。 ドライブを別のPCにマウントするとき、fsck / dev / sda1を実行します。常に次のようなメッセージが表示されます "zero datetime on node 1553 ... fix (y)?" 私はそれらを修正し、次の停電まで正常に起動します。 明日オフィスに着いたら、fdisk -lの実際の出力を投稿します。 これが、システムがどのように機能するかについて私が知っているすべてです。私はシステムの専門家ではありません。職務内容の範囲外の窮地に陥る傾向のあるソフトウェアエンジニアです。ドライブのフォーマット、ブートローダーのインストール、ソフトウェアの作成、オペレーティングシステムのハッキングの方法を知っています。 これはdumpe2fsからの出力です #sudo dumpe2fs /dev/sda1 dumpe2fs 1.41.12 (17-May-2010) Filesystem volume name: VideoServer Last mounted on: / Filesystem UUID: 9cba62b0-8038-4913-be30-8eb211b23d78 …

3
突然の大規模なファイルシステムの損傷の原因?(「ルートiノードはディレクトリではありません」)[終了]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 5年前休業。 Patriot Torx SSDを搭載したMaverickを実行しているラップトップ(昨日までとてもうれしい)を持っています。パーティション全体のLUKS暗号化。その上に1つのLVM物理ボリューム。次に、その上にあるext4論理ボリュームのホームとルート。 昨日起動しようとしたところ、ルートファイルシステムをマウントできないと文句を言った。fsckを実行すると、基本的にすべてのiノードが間違っているようです。ホームとルートの両方のファイルシステムで同様の問題が発生します。バックアップスーパーブロックを確認しても効果はありません。 e2fsck 1.41.12 (17-May-2010) lithe_root was not cleanly unmounted, check forced. Resize inode not valid. Recreate? no Pass 1: Checking inodes, blocks, and sizes Root inode is not a directory. Clear? no Root inode has dtime set (probably due to old mke2fs). Fix? …
8 linux  ssd  corruption  fsck  ext4 

3
ファイルシステムを破壊する方法
以前はメモリ使用量が多かったため、いくつかの大きなファイルシステム(約50 TB)で「xfs_repair」をテストします。正しいファイルシステムでのみプログラムをテストできましたが、破損したシステムでテストすることをお勧めします。 では、ファイルシステムを破損させる最善の方法は何でしょうか。メソッドが繰り返し同じ破損を毎回与える場合の追加のクレジット.... 2006年に私が何を意味しているのかを人々に知らせるために 「マルチテラバイトのファイルシステムで修復を正常に確認または実行するには、次のものが必要です。 64ビットマシン 64ビットxfs _ repair / xfs _チェックバイナリ ファイルシステムのテラバイトあたり最大2GBのRAM ファイルシステムの100万iノードあたり100〜200 MBのRAM。 xfs_repairは通常これよりも少ないメモリを使用しますが、これらの数値は、80%を超えるフルファイルシステムが修復に必要とする可能性があるものについて、大まかな数値を与えます。 FWIW、これが最後に内部で発生したとき、問題の29 TBのファイルシステムは、修復に最大75 GBのRAM +スワップを必要としました。」
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.