サーバー管理者

システムおよびネットワーク管理者向けのQ&A

1
Googleの公開スタンサーバーが生きているか使用可能かどうかを判断する方法は?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 4年前に閉鎖されました。 私は、以下のような公開STUNサーバーを使用するWebRTCクライアントライブラリをたくさん見ました: "stun.l.google.com:19302", "stun1.l.google.com:19302", "stun2.l.google.com:19302", "stun3.l.google.com:19302", "stun4.l.google.com:19302", 上記のサーバーが死んでいるかどうか疑問に思っていますか?私が試したので: telnet stun.l.google.com 19302 telnet stun.l.google.com 3478 私は次の応答を受け取ります: telnet: connect to address 74.125.204.127: Operation timed out telnet: Unable to connect to remote host リスト内の他のGoogle STUNサーバーでも同じことが起こります。 応答が得られませんでした。これは、GoogleのSTUNサーバーが使用できなくなったことを意味しますか? 私の質問は、上記のようなtelnetはサービスが生きているかどうかを判断する正しい方法ですか?
13 google  telnet 

3
IPv6経由でAmazon S3静的ウェブサイトにアクセスする
Amazon Route 53でホストされているDNSを使用して、Amazon S3で静的ウェブサイトをホストしています。IPv4とIPv6を介してアクセスできるようにしたいです(時間があるため)。 Route 53 AWSマネジメントコンソールを使用AしてS3バケットの(IPv4)「エイリアス」レコードを追加すると、エンドポイントとして使用するS3バケットの名前を入力するよう求められます。AAAA(IPv6)「エイリアス」レコードを追加しようとすると、そのようなオプションは提供されません。 AAAA既存のAレコードを作成した後、クローンを作成して手動でレコードを設定しようとすると、エラーが発生しました。 A「エイリアス」レコードが適切なIPv4 IPアドレスをRoute 53 DNSに入れるという事実を知っています。 IPv6アドレスを手動で設定するのは怖いです。IPv6アドレスが残る保証はないと思うからです。Alias Target設定は、AmazonがStatic S3サイトに対して規定するものです。 したがって、私の質問は、Amazon AWSはIPv6を介したS3静的ウェブサイトへのアクセスをサポートしていますか?サポートしている場合、どのように設定できますか?

2
logrotateを使用してファイルを削除する
実際にローテーションせずにlogrotateを使用して、ディレクトリ内のログファイルを削除することは可能ですか?次の形式でログを生成するアプリがあります:app.log.DD_MM_YYYY。次の構成を使用してlogrotateを実行できません。 /opt/log/app/app.log.* { rotate 0 missingok nomail } ログローテーションはこれを行うことができますか、スクリプトを作成してcron内に配置する必要がありますか? ベスト、-Iulian
13 linux  logrotate 

3
haproxy:アプリセッションを開始せずにサーバーのメンテナンスを準備する方法
問題 haproxyを使用してWebサーバーの負荷を分散しています。一部のアプリケーションはセッションファイルを使用しますが、これらはサーバー間で同期されないため、セッションパーシステンスと追加のCookieを使用します。 セッションを中断することなく、メンテナンスのためにサーバーを無効にします。したがって、既存のクライアントがアプリケーションセッションを継続できるようにしたいのですが、新しいクライアントは受け入れません。 haproxyの動作 サーバーを「メンテナンス中」に設定しました クライアントにCookieが設定されている場合は、「メンテナンス中」とマークされていてもサーバーを使用します 新しいクライアント(Cookieなし)が来ると、別のサーバーに転送されます すべてのクライアントがアプリケーションセッションを終了した後、この特定のサーバーに設定されたCookieを持つクライアントはなくなり、ユーザーを中断することなくシャットダウンできます。 これはいくつかのhaproxy構成で達成できると思いますか?それともそれを行う賢い方法はありますか? 他の方法 このニーズを達成する他の方法の非網羅的なリスト: サーバー間でセッションファイルを同期する(複数のサーバー間でファイルを同期する方法、または共通の単一マウントポイントが必要) データベースを使用してセッション情報を保存する(アプリケーションの動作を変更する必要がある) 詳細 この種の構成を使用します。 frontend https-in bind xxx.xxx.xxx.xxx:443 ssl crt /etc/haproxy/ssl/_default.pem crt /etc/haproxy/ssl reqadd X-Forwarded-Proto:\ https acl APP1 hdr(host) -i APP1.atac.local use_backend APP1 if APP1 default_backend _default backend APP1 redirect scheme https if !{ ssl_fc } mode http balance …

5
RemiリポジトリからPHP7をインストールする
RemiリポジトリからPHP7をインストールしました sudo yum -y install httpd sudo yum -y install epel-release wget http://rpms.famillecollet.com/enterprise/remi-release-6.rpm sudo rpm -Uvh remi-release-6*.rpm sudo yum -y --enablerepo=remi,remi-test install php70 scl enable php70 'php -v' sudo ln -s /usr/bin/php70 /usr/bin/php そして、CLI経由で動作しています。今、私はそれをApacheで動作させたいと思っていますが、LoadModuleに2番目の引数として渡すように見つけることができません LoadModule php7_module unknown_path <FilesMatch \.php$> SetHandler application/x-httpd-php </FilesMatch> これは、PHP7をapache2で動作させるための正しいアプローチですか?
13 php  centos6 

1
スナップショットの削除が非常に遅い
iSCSI経由で公開されたHP LeftHandストレージを備えたESXiボックスがあります。 1TBのディスクを持つ仮想マシンがあり、そのうち800GBが消費されています。ディスクは、LeftHandストレージにシックプロビジョニングされています。 VMでスナップショットが開かれ(Veeam Backup and Recoveryが処理できるように)、約6時間開かれました。この間に約5GBのデルタディスクが作成されました。 スナップショットの削除には5時間以上かかりましたが、まだ完了していません。ストレージアレイは、そのアレイで実質的にIOPS(バックグラウンドノイズである約600)、スループットなし(バックグラウンドノイズである約8MB /秒)、平均キュー深度9を実質的に報告しています。 言い換えれば、スナップショット統合プロセスはIOバウンドではないようです。スナップショットの削除が非常に遅くなる原因は何もわかりません。それはされて差分ファイルを見て判断し、取り組んでいます。 この(比較的小さい)スナップショットを削除するのが非常に遅い理由について、他に検討すべきことはありますか? あたりとしてVMwareのマニュアル、私は見ているls -lh | grep -E "delta|flat|sesparse"今、私は変更されている2つの差分ファイルを参照してください。 -rw------- 1 root root 194.0M Jun 15 01:28 EXAMPLE-000001-delta.vmdk -rw------- 1 root root 274.0M Jun 15 01:27 EXAMPLE-000002-delta.vmdk あるスナップショットファイルが統合され、他のスナップショットファイルは統合プロセス中にデルタを収集していると推測しています。次に、新しいものが統合され、そのプロセス中に別のデルタが作成されます。 ファイルサイズは各反復(まあ、ほとんどの反復)で低下しているので、最終的にこの統合手順が完了すると思います(変更を生成せずにこれを完了するには、30分間VMをネットワークから取り外す必要があるかもしれません) 。 統合するには、デルタ100メガにつき約2分かかります。これは確かに前に起こったことはありません。通常のVeeamバックアップでのスナップショットの削除には約40分かかります(確かに高速ではありませんが、この速度ではありません)。 6時間2分後に、スナップショットは最終的に削除されます。ただし、この種の問題(ストレージのパフォーマンス以外)を通常トラブルシューティングする方法があるかどうかを引き続き知りたいと思います。

3
旅行中にホテルからSSHでサーバーに接続するのは本当に安全ですか?
旅行中にホテルからSSHを使用してサーバーに接続するのは本当に安全ですか? サーバー: -CentOS 7 -RSAキーによる認証のみ-パスワード認証が拒否されました -非標準ポート ワークステーション: -Ubuntu 14- ユーザーパスワード -RSAキーを使用するためのパスワード(標準的な方法) たぶん、USBスティックに秘密RSAキーの半分を保持し、接続する前に(スクリプトによって)自動的にこの半分を〜/ .ssh / private_keyに追加することをお勧めしますか? インターネットは、ホテル内のWIFI、または賃貸アパート内のケーブルを介して接続されます。 UPD 最初は不明でした。ここで2つの側面でセキュリティを意味します。 信頼できないネットワークを介したSSH接続のみのセキュリティ。 SSH接続に必要なキーを使用したコンピューターのセキュリティ-盗難にあった場合、サーバーを保護する方法...

10
Windows 2012 R2に.Net 3.5をインストールする
したがって、Windows 2012 R2 Serverに.net 3.5をインストールしようとしています。機能の追加とDISMの両方で失敗しました。 機能の追加GUIを使用して「代替パスの指定」を使用すると、「1つ以上の役割、役割サービス、または機能のインストールに失敗しました」というエラーで失敗します 高架PowerShellを介してDISMを使用しようとすると、次のコマンドを使用します。 dism.exe /online /enable-feature /featurename:NetFX3 /Source:d:\sources\sxs これは失敗します エラー:0x800f0906ソースファイルをダウンロードできませんでした。「ソース」オプションを使用して、機能の復元に必要なファイルの場所を指定します。ソースの場所の指定の詳細については、http://go.microsoft.com/fwlink/?LinkId = 243077を参照して ください。 DISMログファイルは、C:\ Windows \ Logs \ DISM \ dism.logにあります。 上記のKB(243077)に従って、SXSフォルダーのグループポリシーの場所を設定しました。再起動しても同じエラーが発生します。DSIMログには以下が表示されます コマンドenable-featureの処理中に失敗しました。-CPackageManagerCLIHandler :: ExecuteCmdLine(hr:0x800f0906) 簡単なグーグルは、多くの人がこれに問題を抱えていること、そして このサーバーがインストールされていないKB2966826とKB2966828をアンインストールする必要があることを示しています。 オフラインの.Netインストーラーも試してみましたが、Windowsの機能を使用して追加する必要があります。すべてのコマンドは、管理者として、昇格したプロンプトを介して実行されています。 これを書いている間、私は「類似の質問」に気づき、この「Unable to install .net 3.5 on Windows server 2012」に注目しました。 ランニング dism.exe /online /enable-feature /featurename:NetFX3 /all 上記と同じエラーを生成しました。

4
Linuxホストを新しいハードウェアにコピーする
古いハードウェアから新しいハードウェアへのホスト間移行をホストする必要があります。具体的には、HP BL460G7からHP BL460G8へ。古いサーバーと新しいサーバーの両方に2台の600GB 2.5インチドライブがあり、RAID1用に構成されています。サーバーあたり30分のダウンタイムを許容できます。 移行するサーバーは4つあり、最小のものには合計120GBが論理ボリュームに割り当てられ、最大のものには510GBが割り当てられています。3台のサーバーがRHEL5を実行しており、1台がRHEL6を実行しています。 OSと重要なデータを破壊せずに、指定された時間枠内でこれを行う方法について頭を悩ませてきました。 私の唯一の考えはこれです: 古いサーバーから1つのドライブを削除します(サーバーの電源が入っています) 新しいサーバーから両方のドライブを削除します(サーバーはオフになります) キャディからG7ドライブを取り外し、脇に置きます G8ドライブをキャディから取り外し、G7キャディにインストールする G7キャディのG8ドライブを古いサーバーにインストールする RAIDコントローラがRAID1アレイを再構築するのを待ちます 古いサーバーのシャットダウンが完了したら G7キャディのG8ドライブを削除する G8キャディにG8ドライブをインストールし、G8に挿入します(単一ドライブがインストールされています) ブートG8サーバー OSが起動するのを待ちます OSが起動したら、残りのドライブを挿入します RAIDアレイが再構築するのを待つ この音は正気ですか? 編集:RHEL5はRHEL5.10で、RHEL6はRHEL6.6です また、2つのシステムは、アプリケーションの「イベント」(重要なインフラストラクチャシステムの一部)のほぼ一定の複製を行うホット4ノードクラスターの一部であることに注意してください。バックアップはありますが、システム全体に障害が発生した場合にのみ使用します。 以前のテストでは、システム間の最大「dd」が約50MBpsであることが示されましたが、これは非常に遅いです。 編集:私はピックアップとハードウェアの変更に対処するために葛に依存するつもりだった。
13 linux  hardware  hp 

3
異なる物理ネットワークインターフェイスとデフォルトゲートウェイを使用した、Dockerコンテナからのルーティング
背景情報 Dockerを実行している2つのネットワークインターフェイスを持つサーバーがあります。Dockerは、一部の仮想化ツールと同様に、と呼ばれるLinuxブリッジインターフェースを作成しますdocker0。このインターフェイスはデフォルトでIPで構成され172.17.42.1、すべてのDockerコンテナはゲートウェイとしてこのインターフェイスと通信し、同じ/16範囲のIPアドレスが割り当てられます。私が理解しているように、コンテナとの間のすべてのネットワークトラフィックはNATを通過するため、発信はからのように見え172.17.42.1、着信はに送信され172.17.42.1ます。 私のセットアップは次のようになります: +------------+ / | | | +-------------+ Gateway 1 +------- | | 10.1.1.1 | / +------+-------+ +------------+ | | eth0 | / | 10.1.1.2 | | | | | | DOCKER HOST | | | | | Internet | docker0 | | | (bridge) | | | 172.17.42.1 …

7
物理的アクセスにさらされるリモート展開されたサーバー上のデータの盗難を防止する[非公開]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 4年前に閉鎖されました。 物理的なアクセスにさらされているLinuxサーバーを保護する方法を考えています。私の特定のプラットフォームは、PC Enginesブランドのalix2d13マザーボード上の小型フォームファクターLinuxサーバーです。サイズが小さいと、攻撃者によって施設から持ち去られるリスクが増えます。 サーバーへの物理的なアクセスがあると仮定します。 1)ROOT-PASSWORD:コンソールケーブルをサーバーに接続すると、パスワードのプロンプトが表示されます。パスワードがわからない場合は、シングルユーザーモードでマシンを再起動し、パスワードをリセットできます。Voilà、ルートアクセスを取得します。 上記のセキュリティを確保するには、GRUBメニューにパスワードを挿入します。これにより、サーバーを再起動してシングルユーザーモードを開始するときに、GRUBパスワードを入力する必要があります。 2)GRUB_PASSWORD。マシンをシャットダウンした場合、ハードドライブを取り出して別のワークステーションにマウントすると/boot、GRUBパスワードを見つけることができるgrub.cfgファイルを含むディレクトリを参照できます。GRUBパスワードを変更するか、削除することができます。 明らかに、私たちが大規模な実稼働マシンについて話すとき、おそらく物理的なアクセスはないでしょう。それ以外は、たとえ誰かがサーバーに物理的にアクセスしても、シャットダウンしません。 物理的に簡単に盗むことができるサーバーでのデータ盗難を防ぐための可能な解決策は何ですか? 私がそれを見る方法、含まれているデータへの何らかの方法でアクセスすることができます。
13 linux  security 

4
tcpdumpはudpのパフォーマンスを向上させます
一連の負荷テストを実行して、次のセットアップのパフォーマンスを判断しています。 Node.js test suite (client) --> StatsD (server) --> Graphite (server) つまり、node.jsテストスイートは、x秒ごとに一定量のメトリックを別のサーバーにあるStatsDインスタンスに送信します。次に、StatsDは、メトリックを毎秒同じサーバーにあるGraphiteインスタンスにフラッシュします。次に、テストスイートによって実際に送信されたメトリックの数と、グラファイトによって受信されたメトリックの数を調べて、テストスイートとグラファイトの間のパケット損失を判断します。 しかし、20〜50%の範囲の非常に大きなパケットドロップ率(UDPプロトコルで送信されていることに注意してください)が得られることがあることに気付きました。そのため、これらのパケットがドロップされる場所を調べ始めたのは、StatsDのパフォーマンスの問題の可能性があるからです。そこで、このドロップが発生した場所を追跡するために、システムのすべての部分でメトリックの記録を開始しました。そして、これは物事が奇妙になる場所です。 私が使用していtcpdumpのを、私は、テストの実行が行われた後、検査キャプチャファイルを作成します。しかし、tcpdumpを実行してテストを実行すると、パケット損失はほとんどありません。tcpdumpがテストのパフォーマンスを何らかの形で向上させているように見えますが、これがなぜ、どのように行われるのかわかりません。次のコマンドを実行して、サーバーとクライアントの両方でtcpdumpメッセージを記録しています。 tcpdump -i any -n port 8125 -w test.cap 特定のテストケースでは、40000メトリック/秒を送信しています。tcpdumpの実行中のテストでは約4%のパケット損失がありますが、テストなしでは約20%のパケット損失があります。 両方のシステムは、次のセットアップでXen VMとして実行されています。 Intel Xeon E5-2630 v2 @ 2.60GHz 2GB RAM Ubuntu 14.04 x86_64 潜在的な原因についてすでに確認したこと: UDPバッファーの受信/送信サイズを増やします。 テストに影響するCPU負荷。(クライアント側とサーバー側の両方で最大負荷40〜50%) 「any」の代わりに特定のインターフェイスでtcpdumpを実行します。 「-p」を指定してtcpdumpを実行し、混合モードを無効にします。 サーバーでのみtcpdumpを実行します。これにより、20%のパケット損失が発生し、テストには影響がないようです。 クライアントでのみtcpdumpを実行します。これにより、パフォーマンスが向上しました。 netdev_max_backlogおよびnetdev_budgetを2 ^ 32-1に増やします。これは違いはありませんでした。 すべてのNICで無差別モードの可能な設定をすべて試しました(サーバーのオンとクライアントのオフ、サーバーのオフとクライアントのオン、両方のオン、両方のオフ)。これは違いはありませんでした。

1
既存の「汎用」ホスト上のdocker-machine?
LANにSSHアクセスできるマシンがあります。を使用して通信できるように設定するにはどうすればよいdocker-machineですか? VirtualHost、Digital Oceanなどで新しいインスタンスを開始するときなど、新しいホストに使用されるISOを作成するためのプロジェクト(boot2docker)があります。既にセットアップされているマシンを破棄せずにこのセットアップを行いたいdocker-machine "node"サービスを実行します。
13 docker 

4
sudoを使用せずに非rootユーザーに一連のコマンドのアクセスを許可する
私のマシンの非ルートユーザーに非sudoアクセスを許可したい、ユーザーdns-managerがあり、彼の唯一の役割はすべてのBINDコマンド(rndc、dnssec-keygen)などを実行することです 今、彼はコマンドを実行する必要があるたびに、入力します、 sudo rndc reload このsudoを取り除くことができる方法はありますが、特定のコマンドセットでのみ(そしてdns-managerのみ)ですか?
13 linux  sudo 

2
このSSL証明書チェーンは壊れていて、その修正方法は?
ドメインexample.comのSSL証明書の場合は、いくつかのテストは、チェーンが不完全であることを教えてとFirefoxは、独自の証明書ストアを保持するので、それは、Mozilla(に失敗することがあります1、2、3)。他の人は、それは結構です教えて証明書チェーンは大丈夫であることを私に告げるのFirefox 36は、同じように、。 更新:Windows XPとMacOS X Snow Leopardの両方でOpera、Safari、Chrome、IEでテストしましたが、すべて正常に動作します。両方のOSのFirefox <36でのみ失敗します。Linuxでテストすることはできませんが、このWebサイトでは訪問者の1%未満であり、ほとんどがボットです。したがって、これは「このセットアップはMozilla Firefoxで警告を表示するかどうか」および「このSSL証明書チェーンは壊れているかどうか」という元の質問に答えます。 したがって、問題は、どの証明書をssl.caファイルに配置して、Apacheで提供してFirefox <36が窒息しないようにする必要があるかを見つける方法ですか? PS:補足説明として、証明書のテストに使用したFirefox 36はまったく新しいインストールでした。同じチェーンを使用するサイトへの前回の訪問の間に中間証明書をダウンロードしたので、文句を言わなかった可能性はありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.