サーバー管理者

システムおよびネットワーク管理者向けのQ&A

8
サーバー環境でのコンシューマ(またはプロシューマー)SSDと高速HDD
サーバー環境での消費者向けSSDと高速10〜15k回転ドライブの長所と短所は何ですか?エンタープライズSSDは非常に高価なので、このケースでは使用できません。特定のユースケースに関する注意事項を次に示します。 最大5〜10 VMのハイパーバイザー 個々のVMがI / Oに集中することはありません。 内部RAID 10、SAN / NASなし... 私はエンタープライズSSDを知っています: 寿命が長い 長期間にわたってより一貫して実行する コンシューマーSSDよりも...しかし、コンシューマーSSDは完全にサーバー環境に適していないということですか、それとも高速回転ドライブよりも優れたパフォーマンスを発揮しますか? RAID /バックアップを介して保護されているため、寿命のパフォーマンスを心配しています(寿命が非常に短いと予想されない限り)。

2
AWSに証明書をアップロードできません
私がやっている: aws iam upload-server-certificate --server-certificate-name MysiteCertificate --certificate-body Downloads/mysite/mysite.crt --private-key mysite.pem --certificate-chain Downloads/mysite/COMODOSSLCA.crt しかし、エラーが発生しています: A client error (MalformedCertificate) occurred when calling the UploadServerCertificate operation: Unable to parse certificate. Please ensure the certificate is in PEM format. pemただし、有効なファイルは=(

7
これがMSIのインストールを妨げる理由:システム管理者は、このインストールを防ぐためのポリシーを設定しています
ラボドメインの一部であるWindows Server 2012マシンにMSIをインストールしようとしています。私はローカルおよびドメイン管理者ですが、このMSIをインストールできないようです。 明確にするために、管理者グループの一部であるドメインユーザーとしてログインしているVisual Studio(ここにある)のgit拡張機能をインストールしようとすると、次のエラーが表示されます。 エラーを報告しているマシンはWindows Server 2012です。 私はそれが何らかのグループポリシー制限でなければならないことをほぼ確信していますか?デフォルトのセキュリティレベルでない限り、何も設定されていませんか? 明確にするために、ドメイン管理者によるこのMSIのインストールを妨げているものを知りたいのですが?

7
CPU使用率は高いが、平均負荷は低い
CPU使用率は高いが負荷平均はかなり低いという奇妙な動作に陥っています。 この動作は、監視システムの次のグラフで最もよく説明されています。 11:57頃に、CPU使用率は25%から75%になります。負荷平均は大幅に変更されません。 それぞれ2つのハイパースレッドを持つ12コアのサーバーを実行します。OSはこれを24個のCPUと見なします。 CPU使用率データは、/usr/bin/mpstat 60 1毎分実行することにより収集されます。all行と列のデータは%usr上のチャートに示されています。これは、「スタック」使用率ではなく、CPUあたりの平均データを示していると確信しています。グラフで75%の使用率が表示されていますが、プロセスでは約2000%の「スタック」CPUを使用していることがわかりtopます。 負荷平均値は、/proc/loadavg毎分から取得されます。 uname -a 与える: Linux ab04 2.6.32-279.el6.x86_64 #1 SMP Wed Jun 13 18:24:36 EDT 2012 x86_64 x86_64 x86_64 GNU/Linux Linux distは Red Hat Enterprise Linux Server release 6.3 (Santiago) マシンにかなり高い負荷がかかっている状態で、2台のJava Webアプリケーションを実行します。マシンあたり100リクエスト/秒と考えてください。 CPU使用率データを正しく解釈すると、CPU使用率が75%の場合、CPUが平均75%の時間でプロセスを実行していることになります。ただし、CPUが75%の時間でビジーである場合、より高い負荷平均は見られませんか?実行キューに2〜4個のジョブしかないのに、CPUが75%ビジーになる可能性はありますか? データを正しく解釈していますか?この動作の原因は何ですか?

6
SERVER用に構成されたRSA証明書には、サーバー名と一致するIDが含まれていません
最近、LAMPサーバー(すべての最新バージョン)とWordPressを起動しました。最近購入したSSL証明書をインストールしようとしています。再起動するとapachectl、error_logから次のメッセージが表示されます。 [Tue Feb 25 01:07:14.744222 2014] [mpm_prefork:notice] [pid 1744] AH00169: caught SIGTERM, shutting down [Tue Feb 25 01:07:17.135704 2014] [suexec:notice] [pid 1765] AH01232: suEXEC mechanism enabled (wrapper: /usr/sbin/suexec) [Tue Feb 25 01:07:17.217424 2014] [auth_digest:notice] [pid 1766] AH01757: generating secret for digest authentication ... [Tue Feb 25 01:07:17.218686 2014] [lbmethod_heartbeat:notice] [pid …


3
Haproxyで複数のSSL証明書を構成する
私のhaproxyインスタンスは2つのドメインにサービスを提供します(主にメインサイトでのXSSを回避するため)。 ルールは次のようになります bind :443 ssl crt /etc/ssl/haproxy.pem acl is_static hdr_end(Host) -i example.com acl is_api hdr_end(Host) -i api.example.com acl is_files hdr_end(Host) -i example.io redirect scheme https if !{ ssl_fc } is_static is_api これで、SSLは/etc/ssl/haproxy.pemデフォルトの証明書として使用します。これはの証明書でexample.comあり、ではありませんexample.io。 複数のドメイン名の証明書を指定するにはどうすればよいですか?
28 haproxy 

3
Amazon SESからGmailに送信されたメールから「経由」を削除する
Amazon SESからEメールを送信すると、Gmailに「送信済みamazonses.com」と表示されます。これを削除するにはどうすればよいですか? Googleによると、 私は送信者です。受信者に「経由」リンクを見せたくないのです。私に何ができる?Gmailは、メールが正しく認証されているかどうかを確認します。バルクメーリングベンダーまたはサードパーティアフィリエイトによってメッセージが送信される場合、メッセージを送信し、ドメインに関連付けられたDKIM3署名でメッセージに署名するベンダーまたはアフィリエイトのIPを含むSPFレコード2を公開してください。 SPFレコードとDKIMレコードの両方を追加しました。元の電子メールを見ると、両方とも合格したことが示されます。 Received-SPF:認証結果を渡す:mx.google.com; spf = pass ...; dkim = pass ... 何か案は?


3
XHELファイルシステムはRHEL / CentOS 6.xで壊れています-どうすればいいですか?
RHEL / CentOS(EL6)の最近のバージョンは、私が10年以上にわたって強く依存してきたXFSファイルシステムにいくつかの興味深い変更をもたらしました。昨年の夏の一部で、文書化されていないカーネルバックポートに起因するXFSスパースファイルの状況を追いかけました。EL6に移行してから、不幸なパフォーマンスの問題や一貫性のない動作をしている人もいます。 XFSは、デフォルトのext3ファイルシステムよりも安定性、スケーラビリティ、および優れたパフォーマンスの向上を提供したため、データおよび成長パーティションのデフォルトのファイルシステムでした。 2012年11月に表面化したEL6システム上のXFSに問題があります。アイドル状態でも、サーバーが異常に高いシステム負荷を示していることに気付きました。あるケースでは、アンロードされたシステムは、3 +の一定のロード平均を示します。他では、負荷に1+のバンプがありました。マウントされたXFSファイルシステムの数は、負荷増加の重大度に影響するように思われました。 システムには2つのアクティブなXFSファイルシステムがあります。影響を受けるカーネルへのアップグレード後、負荷は+2です。 深く掘り下げてみると、XFSメーリングリストxfsaildで、STAT D状態にあるプロセスの頻度が増加していることを示すスレッドがいくつか見つかりました。対応するCentOSバグトラッカーとRed Hat Bugzillaのエントリは、問題の詳細を概説し、これはパフォーマンスの問題ではないと結論付けています。2.6.32-279.14.1.el6より新しいカーネルでのシステム負荷のレポートのエラーのみ。 WTF?!? 1回限りの状況では、負荷レポートは大した問題ではないかもしれないことを理解しています。NMSと数百または数千のサーバーで管理してみてください!これは、2012年11月にEL6.3のカーネル2.6.32-279.14.1.el6で特定されました。カーネル2.6.32-279.19.1.el6および2.6.32-279.22.1.el6はその後の月(2012年12月および2013年2月)にリリースされ、この動作は変更されていません。この問題が確認されてから、オペレーティングシステムの新しいマイナーリリースがありました。EL6.4がリリースされ、現在カーネル2.6.32-358.2.1.el6上にあり、同じ動作を示しています。 新しいシステムビルドキューがあり、問題を回避する必要がありました。EL6.3の2012年11月以前のリリースでカーネルバージョンをロックするか、ext4またはZFSを選択してXFSを使用しないだけで、パフォーマンスが大幅に低下します。上で実行される特定のカスタムアプリケーション用。問題のアプリケーションは、アプリケーション設計の欠陥を説明するために、XFSファイルシステム属性のいくつかに大きく依存しています。 Red Hatのペイウォール付きナレッジベースサイトの背後に行くと、次のようなエントリが表示されます。 カーネル2.6.32-279.14.1.el6をインストールした後、高い負荷平均が観察されます。平均負荷が高いのは、xfsaildが各XFS形式のデバイスでD状態になるためです。 現在、この問題の解決策はありません。現在Bugzilla#883905で追跡されています。回避策インストールされたカーネルパッケージを2.6.32-279.14.1より前のバージョンにダウングレードします。 (RHEL 6.4のオプションではないカーネルのダウングレードを除く...) したがって、EL6.3またはEL6.4 OSリリースに対して実際の修正は予定されておらず、この問題に4か月以上かかります。EL6.5の修正案と利用可能なカーネルソースパッチがあります...しかし、私の質問は次のとおりです。 アップストリームのメンテナーが重要な機能を壊した場合、OSが提供するカーネルとパッケージから離れることはどの時点で意味がありますか? Red Hatはこのバグを導入しました。彼らはすべき errataカーネルに修正を組み込みます。エンタープライズオペレーティングシステムを使用する利点の1つは、一貫性のある予測可能なプラットフォームターゲットを提供することです。このバグは、パッチサイクル中にすでに実稼働中のシステムを混乱させ、新しいシステムの展開に対する信頼性を低下させました。提案されたパッチのいずれかをソースコードに適用できますが、それはどれほどスケーラブルですか?OSの変更に合わせて更新を続けるには、ある程度の警戒が必要です。 ここで正しい動きは何ですか? これはおそらく修正できるかもしれませんが、いつかは修正できません。 Red Hatエコシステムで独自のカーネルをサポートするには、独自の注意事項があります。 サポートの資格に与える影響は何ですか? 適切なXFS機能を得るために、新しくビルドされたEL6.4サーバーの上に動作中のEL6.3カーネルを単にオーバーレイする必要がありますか? これが正式に修正されるまで待つ必要がありますか? これは、エンタープライズLinuxのリリースサイクルに対するコントロールの欠如について何と言っていますか? XFSファイルシステムに長い間依存していたのは、計画/設計の間違いですか? 編集: このパッチは、最新のCentOSPlusカーネルリリース(kernel-2.6.32-358.2.1.el6.centos.plus)に組み込まれました。私はこれをCentOSシステムでテストしていますが、これはRed Hatベースのサーバーにはあまり役立ちません。

7
NTFSの理論上の最大データ転送スループットはいくらですか?
最近、私はプレゼンターがNTFS IOスタックの最大スループットが1 GBpsであると述べたローカルユーザーグループ会議に出席しました。彼は2つの大きなファイルを同じ論理ボリュームから異なる論理ボリュームに同時にコピーし(つまり[a]がソース、[b]が宛先1、[c]が宛先2)、転送速度が約500 MBps。彼はこのテストを数回繰り返し、基礎となるストレージサブシステムがフラッシュであることに気付きました(低速のストレージを疑わないためです)。 私はこの主張を検証しようとしましたが、文書化されたものを見つけることができません。間違った検索語(「1GBps NTFSスループット」、「NTFSスループット最大」)を検索していると思われます。IOスタックが実際に1GBpsのスループットに制限されているかどうかに興味があります。 編集 明確にするために:プレゼンターがNTFSが意図的に制限されていることを意味するつもりはないと思います(また、それを暗示している場合は申し訳ありません)。ファイルシステムの設計の関数であることが暗示されたと思います。
28 windows  ntfs 

1
LinuxでソフトウェアRAIDとLVMを使用する場合、どのIOスケジューラーと先読み設定が優先されますか?
複数のレイヤー(物理ドライブ-> md-> dm-> lvm)の場合、スケジューラー、先読み設定、およびその他のディスク設定はどのように相互作用しますか? mdadmで作成されたソフトウェアRAIDデバイス(/ dev / md0)の一部である複数のディスク(/ dev / sda-​​/ dev / sdd)があるとします。各デバイス(物理ディスクおよび/ dev / md0を含む)には、IOスケジューラ(そのように変更)および先読み(blockdevを使用して変更)の独自の設定があります。dm(crypto)やLVMなどを追加すると、独自の設定でさらにレイヤーを追加できます。 たとえば、物理デバイスに128ブロックの先読みがあり、RAIDに64ブロックの先読みがある場合、/ dev / md0からの読み取りを行うときにこれは受け入れられますか?mdドライバーは64ブロックの読み取りを試みますが、物理デバイスドライバーはそれを128ブロックの読み取りに変換しますか?または、RAIDは先のデバイスへの「パススルー」を先読みして、64ブロックの読み取りを行いますか? スケジューラにも同じ種類の質問がありますか?IOスケジューラの複数の層とそれらがどのように相互作用するかを心配する必要がありますか、または/ dev / md0が基礎となるスケジューラを効果的にオーバーライドしますか? この質問に答えようとする試みの中で、これを理解するのに役立つかもしれないスケジューラーとツールに関する興味深いデータを掘り下げました。 GoogleのLinux Disk Schedulerベンチマーク blktrace-ブロックデバイス上のI / Oトラフィックのトレースを生成します 関連するLinuxカーネルメーリングリストスレッド
28 linux  raid  lvm 

5
WAMPスタックを使用しないのはなぜですか?
これは、* AMPPのスタックの使用に関する標準的な質問です。 私は最近、何人かの経験豊富な人々と話をしましたが、彼らはWAMPスタックを使用せず、代わりにapache、mysql、phpを別々にインストールすることを提案しました。 しかし、なぜ彼らがこれを提案したのか理解できないので、誰にも教えてもらえますか? WAMPには特別な欠点がありますか、それともすべてを個別にインストールすることには特別な利点がありますか? WAMPスタック自体はapache、mysql、phpで構成されているため、WAMPスタックを使用することと、それらをすべて個別にインストールすることの違いは何ですか?

5
上流のUNIXソケットへのnginxスループットを増やす必要があります— Linuxカーネルのチューニング?
私は、次のように、上流のUnixソケットへのプロキシとして機能するnginxサーバーを実行しています: upstream app_server { server unix:/tmp/app.sock fail_timeout=0; } server { listen ###.###.###.###; server_name whatever.server; root /web/root; try_files $uri @app; location @app { proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Host $http_host; proxy_redirect off; proxy_pass http://app_server; } } 一部のアプリサーバープロセスは、リクエスト/tmp/app.sockが利用可能になったときに順番にプルします。ここで使用している特定のアプリサーバーはUnicornですが、この質問に関係があるとは思いません。 問題は、ある程度の負荷を超えると、nginxは十分な速度でソケットを介してリクエストを取得できないように見えることです。設定したアプリサーバープロセスの数は関係ありません。 私はnginxエラーログにこれらのメッセージの洪水を受け取っています: connect() to unix:/tmp/app.sock failed (11: Resource temporarily unavailable) while connecting …

2
誰かがWindowsサービスプリンシパル名(SPN)を簡単に説明してもらえますか?
私はサービスプリンシパル名に数回取り組んでいますが、Microsoftの説明だけでは不十分です。ドメインで動作するようにIISアプリケーションを構成していますが、私の問題の一部は、サイトをホストしているアプリケーションプールを実行しているWindowsサービスアカウントでhttp固有のSPNを構成する必要に関連しているようです。 これにより、サービスタイプ(MSSQL、http、host、termsrv、wsmanなど)、Kerberos認証、Active Directoryコンピューターアカウント(PCName $)、Windowsサービスアカウント、SPN間の関係が完全には得られないことに気付きました。 、およびサービスにアクセスするために使用しているユーザーアカウント。 誰かが説明を単純化しすぎずにWindowsサービスプリンシパル名(SPN)を説明してもらえますか? 経験豊富なシステム管理者/開発者と共鳴する創造的な類推に対するボーナスポイント。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.