サーバー管理者

システムおよびネットワーク管理者向けのQ&A

6
CloudflareでNamecheap DNSを使用する
CloudFlareは電子メールの転送を提供しないため、NamecheapにDNS管理を残す必要があります。 どのDNSレコード(A、CNAME、...)をCloudFlare(およびどこ)にポイントして、機能を引き続き使用しながら残りをnamecheapに任せることができますか?


4
電源がランダムに切断されるマシンにデータを保存する方法
物理マシンホストで実行されている仮想マシン(Debian)があります。仮想マシンは、ローカルネットワークを介して頻繁に受信するデータのバッファーとして機能します(このデータの期間は0.5秒であるため、かなり高いスループットです)。受信したデータはすべて仮想マシンに保存され、UDPを介して外部サーバーに繰り返し転送されます。外部サーバーが(UDPを介して)データパケットを受信したことを確認すると、元のデータは仮想マシンから削除され、外部サーバーに再度送信されません。VMと外部サーバーを接続するインターネット接続は信頼性が低いため、一度に数日間ダウンする可能性があります。 VMをホストする物理マシンは、ランダムに1日に数回、電源が切断されます。これがいつ発生するかを知る方法はなく、UPS、バッテリー、または同様のソリューションをシステムに追加することはできません。 元々、データは仮想マシン上のファイルベースのHSQLDBデータベースに保存されていました。しかし、頻繁に電源が切れると、最終的にデータベーススクリプトファイルが破損します(ファイルシステムレベルではなく、つまり読み取り可能ですが、HSQLDBは​​それを理解できません)。これが私の質問につながります。 停電が頻繁に発生する可能性がある環境で、データをどのように保存する必要がありますか? 考えられるオプションの1つは、フラットファイルを使用して、データの各パケットをファイルシステム上のファイルとして保存することです。この方法では、電力が失われたためにファイルが破損した場合、それは無視でき、残りのデータはそのまま残ります。ただし、これにはいくつかの問題があり、主に仮想マシンに保存される可能性のあるデータの量に関連しています。各データ間の0.5秒で、10日で1,728,000個のファイルが生成されます。これは、少なくとも、iノード数を増やしたファイルシステムを使用してこのデータを保存することを意味します(現在のファイルシステムのセットアップでは、メッセージが250,000で、使用ディスク容量が30%のiノードが不足しています)。また、管理するのは難しい(不可能ではない)。 他のオプションはありますか?Debianで動作するデータベースエンジンのうち、停電によって破損しないものはありますか?また、これにはどのファイルシステムを使用する必要がありますか?ext3は現在使用されているものです。 仮想マシンで実行されるソフトウェアはJava 6を使用して記述されているため、ソリューションに互換性がないことを願っています。

5
CentOS 6.3に最近のImageMagickをインストールする
私は、CentOS 6.3 x86_64サーバーにインストールされているImageMagickの最新バージョンを取得しようとしています。まず、ImageMagickサイトからRPM をダウンロードし、インストールしようとしました。依存関係がないために失敗しました: error: Failed dependencies: libHalf.so.4()(64bit) is needed by ImageMagick-6.8.0-4.x86_64 libIex.so.4()(64bit) is needed by ImageMagick-6.8.0-4.x86_64 libIlmImf.so.4()(64bit) is needed by ImageMagick-6.8.0-4.x86_64 libImath.so.4()(64bit) is needed by ImageMagick-6.8.0-4.x86_64 libltdl.so.3()(64bit) is needed by ImageMagick-6.8.0-4.x86_64 をlibtool-ltdlインストールしましたが、それにはが含まれてlibltdl.so.7いませんlibltdl.so.4。私はと同様の問題を持ってlibHalf、libIex、libIlmImfとlibImath。通常、OpenEXRをインストールしてこれらの依存関係を取得できます。残念ながら、CentOS 6.3にはOpenEXR 1.6.1が含まれており、これにはilmbase-devel 1.0.1が含まれています。また、ilmbase-develのそのリリースには、これらの依存関係の新しいバージョンが含まれています。 libHalf.so.6 libIex.so.6 libIlmImf.so.6 libImath.so.6 次に、ソースからImageMagickをインストールするための指示に従ってみました。運もありません。ビルドエラーが表示されます。 RPM build errors: File not found by glob: /home/sean/rpmbuild/BUILDROOT/ImageMagick-6.8.0-4.x86_64/usr/lib64/ImageMagick-6.8.0/modules-Q16/coders/djvu.* …

3
Hyper-Vマネージャー:ローカルまたはリモートVMを右クリックするとMMCスナップインがクラッシュする
ドメイン上の複数のHyper-Vサーバーで実行されている仮想マシンにログインして管理するために使用するWindows Server 2008 R2 Enterprise SP1マシンがあります。ローカルまたはリモートVMを右クリックすると、Hyper-Vマネージャーがクラッシュし、次のエラーメッセージが表示されることがあります。 右下の[アクション]メニューを使用すると、問題なく機能しますが、何らかの理由で右クリックするとMMCが機能しなくなります。この問題を修正する方法はありますか?エラーメッセージの詳細は次のとおりです。 Description: Stopped working Problem signature: Problem Event Name: CLR20r3 Problem Signature 01: mmc.exe Problem Signature 02: 6.1.7600.16385 Problem Signature 03: 4a5bc808 Problem Signature 04: Microsoft.Virtualization.Client Problem Signature 05: 6.1.0.0 Problem Signature 06: 4ce7c9e3 Problem Signature 07: 342 Problem Signature 08: 1f Problem Signature …
13 windows  hyper-v 

3
WebアプリでのTomcat 7の末尾のスラッシュの問題
最近、Tomcatサーバーを6.xバージョンから最新の7.xバージョンにアップグレードしました。 助けを求めて、私は少しのトラブルを思いつきました。 MyAppを呼び出すアプリケーションがあります tomcat6で、http://www.example.com/MyApp/page/ にアクセスすると、通常、必要な結果が得られます。 今、tomcat7で、同じURL(末尾のスラッシュを含む)にアクセスすると、「リソースは使用できません」というエラーが表示されます、tomcatは/ MyApp / page /がリクエスト名ではなくwebapp名全体であると考えているためですMyApp webappの下のページ。 それ以外の場合は「HTTPステータス405-リクエストメソッド 'GET'はサポートされていません」というエラーが表示されるため、URLの最後にスラッシュが必要です。 。 既存のwebappのパスの後のスラッシュがtomcatのように新しいwebappにリダイレクトされてtomcat6のようにリクエストを処理するだけではないことをtomcatに伝える方法を誰かが知っているなら、それは素晴らしいことです!
13 tomcat  tomcat6 

4
Windows Server 2012を使用しない技術的な理由はありますか?
私の会社は、Office 365の同期、Lync、Exchange、およびOutlookを使用して、企業全体でActive Directoryを展開しています。 現在、ADはありません(まだ)。5つの独立したオフィスに400人以上のユーザーがいます。 私たちが直面している問題は、最初にWindows Server 2012または2008R2を展開する必要があるかどうかです。 特定の要素は2012年の未知の問題を恐れており、請負業者の1人は、2008年の方が知識ベースが大きいため使用することを提案しました。 2012年にすべてのテストを実施しましたが、いずれかが目的に合っていることを知っています。これは非常に単純な展開です(2つのDCと1つのADFSサーバー)。 また、WDS、WSUS、Sharepoint、およびWebHelpDeskを追加します。 これが環境の完全な説明であると仮定して、最新の利用可能なバージョンを使用すべきではない有効な技術的理由、または注意すべきWindows Server 2012の警告はありますか?

1
SHA256ツリーハッシュを計算するツール[終了]
現在のところ、この質問はQ&A形式には適していません。回答は事実、参考文献、または専門知識によってサポートされると予想されますが、この質問は議論、議論、世論調査、または広範な議論を求める可能性があります。この質問を改善し、場合によっては再開できると思われる場合は、ヘルプセンターをご覧ください。 7年前に閉鎖されました。 AWS Glacierの使用を開始し、SHA-256 Tree Hashと呼ばれるアルゴリズムを使用してファイルをハッシュすることに気付きました。 驚いたことに、このアルゴリズムはSHA-256とは異なるため、これまで使用していたツールを使用してハッシュを比較し、ファイルの整合性を検証することはできません。 ファイルのSHA-256ツリーハッシュを計算するために、可能であればコンテキストメニューに統合されたWindowsツールを知っていますか? 2番目の選択肢として、Linuxコマンドラインツールも受け入れます。


3
サブディレクトリを持つApache VirtualHostプロキシ
現在、プライマリWebサーバーとしてIISサーバーがあります。代わりにApacheサーバーを実装していますが、IISサーバーにアクセスできるようにする必要があります。通常、Apache2はこのサーバーにサブドメインをプロキシできるため、これは簡単なことです。 ただし、問題はこれです。IISサーバーでdotnetChartingを使用しており、ライセンスはドメイン名に関連付けられています。dotnetChartingを機能させるには、別のライセンスを購入する必要があります。 私の質問は、Apache2はサブディレクトリをプロキシできますか?たとえば、「www.example.com/subdir」はIISサーバーを指すことができますか?それは不可能ではないように思えますが、これに対する解決策を見つけることができないようです。

2
SSHは意図的にパスワードが失敗した場合にのみ機能します
だから、私はかなり奇妙な問題を抱えています。サーバーがあり、SSHを試行したときに、最初の試行で正しいパスワードを入力するとすぐに接続が閉じられます。ただし、最初の試行で意図的に間違ったパスワードを入力し、2番目または3番目のプロンプトで正しいパスワードを入力すると、コンピューターに正常にログインできます。同様に、公開鍵認証を使用しようとすると、すぐに接続が閉じられます。ただし、キーファイルに間違ったパスワードを入力し、パスワード認証に戻った後に別の間違ったパスワードを入力した場合、2番目または3番目のプロンプトで正しいパスワードを入力すれば、正常にログインできます。 マシンはRed Hat Enterprise Linux Serverリリース6.2(Santiago)を実行しており、認証にLDAPとPAMを使用しています。これのデバッグを開始する場所についてのアイデアはありますか?提供する必要がある設定ファイルを教えてください。喜んで提供します。 デバッグ情報を次に示します。次のコードブロックは、これらの3つのシナリオを順番に表しています:1)最初の試行で秘密キーのパスワードを修正する、2)最初の試行で秘密キーをスキップする、通常のパスワードを修正する、3)秘密キーをスキップして意図的に不正なパスワードを入力する、良いものを入力してください...これは実際に接続させてくれる唯一のシナリオです。 OpenSSH_5.9p1 Debian-5ubuntu1, OpenSSL 1.0.1 14 Mar 2012 debug1: Reading configuration data /etc/ssh/ssh_config debug1: /etc/ssh/ssh_config line 19: Applying options for * debug2: ssh_connect: needpriv 0 debug1: Connecting to [removed for privacy]. debug1: Connection established. debug3: Incorrect RSA1 identifier debug3: Could not load "/home/trevor/.ssh/id_rsa" as …

7
bind:無効な再帰クエリのブラックホール?
いくつかのドメインの信頼できるネームサーバーであるため、パブリックにアクセス可能なネームサーバーがあります。 現在、サーバーにはANYisc.org、ripe.netなどの偽のタイプのリクエストが殺到しています(これは既知の分散DoS攻撃です)。 サーバーはBINDを実行allow-recursionし、これらの要求が拒否されるように私のLANに設定しました。このような場合、サーバーは、ルートサーバーを参照するセクションauthorityとadditionalセクションだけで応答します。 応答をまったく送信せずに、これらの要求を完全に無視するようにBINDを構成できますか?

1
KVMゲストioはホストioよりもはるかに遅い:それは正常ですか?
CentOS 6.3でQemu-KVMホストシステムをセットアップしています。ソフトウェアRAID10で動作する4つの1TB SATA HDD。ゲストCentOS 6.3は別のLVMにインストールされます。ゲストのパフォーマンスはホストのパフォーマンスとほぼ等しいと人々は言いますが、私はそうは思いません。私のI / Oテストでは、ホストシステムよりもゲストでのパフォーマンスが30〜70%遅くなっています。スケジューラ(elevator=deadlineホストとelevator=noopゲストに設定)をblkio.weight変更し、cgroupで1000に設定し、ioをvirtio に変更しようとしました...しかし、これらの変更はどれも重要な結果をもたらしませんでした。これはゲストの.xml構成部分です。 <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </disk> 私のテストがあります: ホストシステム: オゾン試験 # iozone -a -i0 -i1 -i2 -s8G -r64k random random KB reclen write rewrite read reread read write 8388608 64 189930 …

6
wgetはダウンロードを開始し、「書き込み不可」を停止します
wgetを使用して、サーバー間でいくつかのファイルをミラーリングしています。私は次のコマンドを使用しています: wget -x -N -i http://domain.com/filelist.txt -x =ディレクトリ構造を保持するため -N =新しいファイルのみを取得するためのタイムスタンプ -i =外部ファイルからファイルのリストをダウンロードするには、各行に1つずつ。 私がテストしているような小さなファイルは、326kbの大きなダウンロードで十分です。 しかし、5GBの別のものは203mbのみをダウンロードしてから停止します(常に203MBが数キロバイトを与えたり、取ります) 表示されるエラーメッセージは次のとおりです。 「path / to / file.zip」に書き込めません (前後に奇妙な文字が存在する理由がわかりません。WindowsでPuttyを使用していますが、これとは関係があるかもしれません。そのため、そのままにしておきます。 完全な応答は次のとおりです:(パス、IP、およびドメイン名を置き換えました) --2012-08-31 12:41:19-- http://domain.com/filelist.txt domain.comの解決... MY_IP domain.comへの接続| MY_IP |:80 ...が接続されました。HTTP要求が送信され、応答を待機しています... 200 OK長さ:161 [text / plain]サーバーファイルはローカルファイル「domain.com/filelist.txt」よりも新しいものではありません --2012-08-31 12:41:19-- http://domain.com/path/to/file.zip domain.comへの接続| MY_IP |:80 ...接続しました。HTTP要求が送信され、応答を待っています... 200 OK長さ:5502192869(5.1G)[アプリケーション/ zip]サイズが一致しません(ローカル213004288)-取得しています。 --2012-08-31 12:41:19-- http://domain.com/path/to/file.zip domain.comへの接続| …

5
PHPセッション用のUbuntuのガベージコレクションcronジョブの実行に25分かかります。なぜですか?
Ubuntuには、古いPHPセッションを検索して削除するcronジョブがセットアップされています。 # Look for and purge old sessions every 30 minutes 09,39 * * * * root [ -x /usr/lib/php5/maxlifetime ] \ && [ -d /var/lib/php5 ] && find /var/lib/php5/ -depth -mindepth 1 \ -maxdepth 1 -type f -cmin +$(/usr/lib/php5/maxlifetime) ! -execdir \ fuser -s {} 2> /dev/null \; -delete …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.