タグ付けされた質問 「linux」

Linuxは、Linuxカーネルに基づくUNIXのようなオープンソースオペレーティングシステムの総称です。

11
単一ディレクトリ内のファイルシステムの多数のファイル
それほど大きくはありませんが、平均サイズが30kbの約60,000個のファイルが単一のディレクトリに格納されているものを使用する必要があります(これは要件であるため、ファイル数の少ないサブディレクトリに単純に侵入することはできません)。 ファイルはランダムにアクセスされますが、作成されると同じファイルシステムへの書き込みはありません。現在Ext3を使用していますが、非常に遅いと感じています。助言がありますか?
29 linux  ext3 


3
CentOSサーバーへの最新の成功したログインと失敗した試行の検索
ユーザー名/パスワードの不一致が原因で失敗した最新のログイン試行を報告するログファイルまたはサービスを探しています。CentOSで使用できるそのようなユーティリティはありますか?(組み込みが推奨されます) 2番目の質問、より一般的には、サーバーへの侵入試行のログファイルが必要です。理想的には、このログには、ログイン、httpdアクティビティ、およびその他の従来のオープンポートを含むすべての試行が含まれている必要があります。
29 linux  security  centos 

6
hostsファイルの1つのエントリに複数のIPを割り当てます
VPN経由で内部データベースに接続するWebサーバーがあります。Webサーバーからデータベースへの2つのIP(プライマリおよびセカンダリ)があります。プライマリIPが使用できない場合にセカンダリIPが使用されるように/ etc / hostsファイルを設定するにはどうすればよいですか? これは私のhostsファイルで機能しますか? 141.131.286.1 abc.efg.datastore.com #primary 141.131.286.237 abc.efg.datastore.com #secondary

2
Linuxの「システム」ユーザーとしてコマンドを実行します(shell = / bin / false)
Ubuntu 11.04(adduser --system)で特定のcronジョブを実行するための「システム」ユーザーを作成しましたが、そのユーザーとしてコマンドを手動で実行してテストすることもあります。これを行う最も簡単な方法は何ですか? suユーザーが/bin/falseそのシェルとして持っているため、動作しません(cronには問題ありません)。/bin/bashテストを行うためにシェルを手動で変更してから、再び元に戻していますが、もっと簡単な方法はありますか?
29 linux  ubuntu  shell  cron  su 

2
169.254.0.0へのルートはどこから来たのですか?
CentOS 5.4の実行 Network> Ethernet Device> Route configurationダイアログに表示されないのに169.254.0.0へのルートがあるのはなぜですか? Destination Gateway Genmask Flags Metric Ref Use Iface 192.168.1.0 * 255.255.255.0 U 0 0 0 eth2 169.254.0.0 * 255.255.0.0 U 0 0 0 eth2 default 192.168.1.1 0.0.0.0 UG 0 0 0 eth2
29 linux  centos  routing  route 

1
firewalldとiptables-どちらを使用するか[クローズ]
閉じた。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集して事実と引用で答えられるように質問を更新してください。 4年前に閉鎖されました。 TL; DR新しいCentOSサーバーのインストールでは、firewalldを使用する/etc/sysconfig/iptablesか、それを無効にして使用に戻る必要がありますか? firewalldとiptablesは同様の目的を果たします。どちらもパケットフィルタリングを行いますが、正しく理解した場合、firewalldは変更が行われるたびにルールセット全体をフラッシュしません。 iptablesについてはよく知っていますが、firewalldについてはほとんど知りません。 FedoraおよびRHEL / CentOSでは、従来のiptables設定はで行われました/etc/sysconfig/iptables。firewalldを使用すると、構成/etc/firewalld/が存在し、XMLファイルのセットになります。Fedoraは、このレガシー構成の代わりとしてfirewalldに移行しているようです。firewalldは内部でiptablesを使用することを理解していますが、上記のように独自のコマンドラインインターフェイスと構成ファイル形式も持っています-これは、一方と他方を使用するという意味で言及しているものです。 これらのそれぞれが最適な特定の構成/シナリオはありますか?NetworkMangaer対networkの場合、NetworkManagerはネットワークブリッジのサポートの不足などの理由でネットワークスクリプトの代替として意図されている可能性がありますが、多くの人はサーバーセットアップでそれを使用していないようです。すべて。したがって、「Linuxを使用している場合はNetworkManagerを使用desktop/guiし、サーバーを実行している場合はネットワークを使用する」という一般的な概念があるようです。それは私がさまざまな投稿を読むことから得たものです-しかし、少なくともそれらが現在の状態にある限り、それは少なくともそれらのものの実用的な使用法についてのガイドを提供します。 しかし、私はこれと同じことをfirewalldで行っており、それをオフにして代わりにiptablesを使用しています。(私はほとんどの場合、Linuxをデスクトップに使用するのではなく、サーバーにインストールしています)。firewalldはiptablesの効果的な代替物ですか?すべての新しいシステムでそれを使用するだけですか?

6
Linux OOMキラーを取得してプロセスを強制終了しないようにするにはどうすればよいですか?
物理メモリが少ないがスワップスペースが十分にあるときにLinux OOMキラーを使用してプロセスを強制終了しないようにするにはどうすればよいですか? sysctl vm.overcommit_memory = 2でOOMの強制終了とオーバーコミットを無効にしました。 VMには3 GBの完全に無料の断片化されていないスワップがあり、OOMを強制終了するプロセスの最大メモリ使用量は200MB未満です。 長期的なスワッピングはパフォーマンスにとって恐ろしいことを知っていますが、メモリ要件がはるかに大きいvalgrindで機能テストを行うには、今すぐスワップを使用する必要があります。 Mar 7 02:43:11 myhost kernel: memcheck-amd64- invoked oom-killer: gfp_mask=0x24002c2, order=0, oom_score_adj=0 Mar 7 02:43:11 myhost kernel: memcheck-amd64- cpuset=/ mems_allowed=0 Mar 7 02:43:11 myhost kernel: CPU: 0 PID: 3841 Comm: memcheck-amd64- Not tainted 4.4.0-x86_64-linode63 #2 Mar 7 02:43:11 myhost kernel: Hardware name: …
28 linux  swap  oom 

7
CPU使用率は高いが、平均負荷は低い
CPU使用率は高いが負荷平均はかなり低いという奇妙な動作に陥っています。 この動作は、監視システムの次のグラフで最もよく説明されています。 11:57頃に、CPU使用率は25%から75%になります。負荷平均は大幅に変更されません。 それぞれ2つのハイパースレッドを持つ12コアのサーバーを実行します。OSはこれを24個のCPUと見なします。 CPU使用率データは、/usr/bin/mpstat 60 1毎分実行することにより収集されます。all行と列のデータは%usr上のチャートに示されています。これは、「スタック」使用率ではなく、CPUあたりの平均データを示していると確信しています。グラフで75%の使用率が表示されていますが、プロセスでは約2000%の「スタック」CPUを使用していることがわかりtopます。 負荷平均値は、/proc/loadavg毎分から取得されます。 uname -a 与える: Linux ab04 2.6.32-279.el6.x86_64 #1 SMP Wed Jun 13 18:24:36 EDT 2012 x86_64 x86_64 x86_64 GNU/Linux Linux distは Red Hat Enterprise Linux Server release 6.3 (Santiago) マシンにかなり高い負荷がかかっている状態で、2台のJava Webアプリケーションを実行します。マシンあたり100リクエスト/秒と考えてください。 CPU使用率データを正しく解釈すると、CPU使用率が75%の場合、CPUが平均75%の時間でプロセスを実行していることになります。ただし、CPUが75%の時間でビジーである場合、より高い負荷平均は見られませんか?実行キューに2〜4個のジョブしかないのに、CPUが75%ビジーになる可能性はありますか? データを正しく解釈していますか?この動作の原因は何ですか?

6
SERVER用に構成されたRSA証明書には、サーバー名と一致するIDが含まれていません
最近、LAMPサーバー(すべての最新バージョン)とWordPressを起動しました。最近購入したSSL証明書をインストールしようとしています。再起動するとapachectl、error_logから次のメッセージが表示されます。 [Tue Feb 25 01:07:14.744222 2014] [mpm_prefork:notice] [pid 1744] AH00169: caught SIGTERM, shutting down [Tue Feb 25 01:07:17.135704 2014] [suexec:notice] [pid 1765] AH01232: suEXEC mechanism enabled (wrapper: /usr/sbin/suexec) [Tue Feb 25 01:07:17.217424 2014] [auth_digest:notice] [pid 1766] AH01757: generating secret for digest authentication ... [Tue Feb 25 01:07:17.218686 2014] [lbmethod_heartbeat:notice] [pid …

3
XHELファイルシステムはRHEL / CentOS 6.xで壊れています-どうすればいいですか?
RHEL / CentOS(EL6)の最近のバージョンは、私が10年以上にわたって強く依存してきたXFSファイルシステムにいくつかの興味深い変更をもたらしました。昨年の夏の一部で、文書化されていないカーネルバックポートに起因するXFSスパースファイルの状況を追いかけました。EL6に移行してから、不幸なパフォーマンスの問題や一貫性のない動作をしている人もいます。 XFSは、デフォルトのext3ファイルシステムよりも安定性、スケーラビリティ、および優れたパフォーマンスの向上を提供したため、データおよび成長パーティションのデフォルトのファイルシステムでした。 2012年11月に表面化したEL6システム上のXFSに問題があります。アイドル状態でも、サーバーが異常に高いシステム負荷を示していることに気付きました。あるケースでは、アンロードされたシステムは、3 +の一定のロード平均を示します。他では、負荷に1+のバンプがありました。マウントされたXFSファイルシステムの数は、負荷増加の重大度に影響するように思われました。 システムには2つのアクティブなXFSファイルシステムがあります。影響を受けるカーネルへのアップグレード後、負荷は+2です。 深く掘り下げてみると、XFSメーリングリストxfsaildで、STAT D状態にあるプロセスの頻度が増加していることを示すスレッドがいくつか見つかりました。対応するCentOSバグトラッカーとRed Hat Bugzillaのエントリは、問題の詳細を概説し、これはパフォーマンスの問題ではないと結論付けています。2.6.32-279.14.1.el6より新しいカーネルでのシステム負荷のレポートのエラーのみ。 WTF?!? 1回限りの状況では、負荷レポートは大した問題ではないかもしれないことを理解しています。NMSと数百または数千のサーバーで管理してみてください!これは、2012年11月にEL6.3のカーネル2.6.32-279.14.1.el6で特定されました。カーネル2.6.32-279.19.1.el6および2.6.32-279.22.1.el6はその後の月(2012年12月および2013年2月)にリリースされ、この動作は変更されていません。この問題が確認されてから、オペレーティングシステムの新しいマイナーリリースがありました。EL6.4がリリースされ、現在カーネル2.6.32-358.2.1.el6上にあり、同じ動作を示しています。 新しいシステムビルドキューがあり、問題を回避する必要がありました。EL6.3の2012年11月以前のリリースでカーネルバージョンをロックするか、ext4またはZFSを選択してXFSを使用しないだけで、パフォーマンスが大幅に低下します。上で実行される特定のカスタムアプリケーション用。問題のアプリケーションは、アプリケーション設計の欠陥を説明するために、XFSファイルシステム属性のいくつかに大きく依存しています。 Red Hatのペイウォール付きナレッジベースサイトの背後に行くと、次のようなエントリが表示されます。 カーネル2.6.32-279.14.1.el6をインストールした後、高い負荷平均が観察されます。平均負荷が高いのは、xfsaildが各XFS形式のデバイスでD状態になるためです。 現在、この問題の解決策はありません。現在Bugzilla#883905で追跡されています。回避策インストールされたカーネルパッケージを2.6.32-279.14.1より前のバージョンにダウングレードします。 (RHEL 6.4のオプションではないカーネルのダウングレードを除く...) したがって、EL6.3またはEL6.4 OSリリースに対して実際の修正は予定されておらず、この問題に4か月以上かかります。EL6.5の修正案と利用可能なカーネルソースパッチがあります...しかし、私の質問は次のとおりです。 アップストリームのメンテナーが重要な機能を壊した場合、OSが提供するカーネルとパッケージから離れることはどの時点で意味がありますか? Red Hatはこのバグを導入しました。彼らはすべき errataカーネルに修正を組み込みます。エンタープライズオペレーティングシステムを使用する利点の1つは、一貫性のある予測可能なプラットフォームターゲットを提供することです。このバグは、パッチサイクル中にすでに実稼働中のシステムを混乱させ、新しいシステムの展開に対する信頼性を低下させました。提案されたパッチのいずれかをソースコードに適用できますが、それはどれほどスケーラブルですか?OSの変更に合わせて更新を続けるには、ある程度の警戒が必要です。 ここで正しい動きは何ですか? これはおそらく修正できるかもしれませんが、いつかは修正できません。 Red Hatエコシステムで独自のカーネルをサポートするには、独自の注意事項があります。 サポートの資格に与える影響は何ですか? 適切なXFS機能を得るために、新しくビルドされたEL6.4サーバーの上に動作中のEL6.3カーネルを単にオーバーレイする必要がありますか? これが正式に修正されるまで待つ必要がありますか? これは、エンタープライズLinuxのリリースサイクルに対するコントロールの欠如について何と言っていますか? XFSファイルシステムに長い間依存していたのは、計画/設計の間違いですか? 編集: このパッチは、最新のCentOSPlusカーネルリリース(kernel-2.6.32-358.2.1.el6.centos.plus)に組み込まれました。私はこれをCentOSシステムでテストしていますが、これはRed Hatベースのサーバーにはあまり役立ちません。

1
LinuxでソフトウェアRAIDとLVMを使用する場合、どのIOスケジューラーと先読み設定が優先されますか?
複数のレイヤー(物理ドライブ-> md-> dm-> lvm)の場合、スケジューラー、先読み設定、およびその他のディスク設定はどのように相互作用しますか? mdadmで作成されたソフトウェアRAIDデバイス(/ dev / md0)の一部である複数のディスク(/ dev / sda-​​/ dev / sdd)があるとします。各デバイス(物理ディスクおよび/ dev / md0を含む)には、IOスケジューラ(そのように変更)および先読み(blockdevを使用して変更)の独自の設定があります。dm(crypto)やLVMなどを追加すると、独自の設定でさらにレイヤーを追加できます。 たとえば、物理デバイスに128ブロックの先読みがあり、RAIDに64ブロックの先読みがある場合、/ dev / md0からの読み取りを行うときにこれは受け入れられますか?mdドライバーは64ブロックの読み取りを試みますが、物理デバイスドライバーはそれを128ブロックの読み取りに変換しますか?または、RAIDは先のデバイスへの「パススルー」を先読みして、64ブロックの読み取りを行いますか? スケジューラにも同じ種類の質問がありますか?IOスケジューラの複数の層とそれらがどのように相互作用するかを心配する必要がありますか、または/ dev / md0が基礎となるスケジューラを効果的にオーバーライドしますか? この質問に答えようとする試みの中で、これを理解するのに役立つかもしれないスケジューラーとツールに関する興味深いデータを掘り下げました。 GoogleのLinux Disk Schedulerベンチマーク blktrace-ブロックデバイス上のI / Oトラフィックのトレースを生成します 関連するLinuxカーネルメーリングリストスレッド
28 linux  raid  lvm 

5
上流のUNIXソケットへのnginxスループットを増やす必要があります— Linuxカーネルのチューニング?
私は、次のように、上流のUnixソケットへのプロキシとして機能するnginxサーバーを実行しています: upstream app_server { server unix:/tmp/app.sock fail_timeout=0; } server { listen ###.###.###.###; server_name whatever.server; root /web/root; try_files $uri @app; location @app { proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Host $http_host; proxy_redirect off; proxy_pass http://app_server; } } 一部のアプリサーバープロセスは、リクエスト/tmp/app.sockが利用可能になったときに順番にプルします。ここで使用している特定のアプリサーバーはUnicornですが、この質問に関係があるとは思いません。 問題は、ある程度の負荷を超えると、nginxは十分な速度でソケットを介してリクエストを取得できないように見えることです。設定したアプリサーバープロセスの数は関係ありません。 私はnginxエラーログにこれらのメッセージの洪水を受け取っています: connect() to unix:/tmp/app.sock failed (11: Resource temporarily unavailable) while connecting …

6
IPトラフィック用の最高のツール[終了]
一部の接続がサーバーで使用している帯域幅を監視する必要があり、そのためのトップレベルのツールを見たことがあることは知っています。しかし、ツールの名前を思い出すことができず、それを検索するのにあまり運がありません。 だから、そのためのトップのようなツールはありますか?Debianを実行しています。

2
シンボリックリンクをコピーせずにrsyncのアーカイブフラグを使用する
rsyncのマニュアルページに記載されているように、-a(アーカイブ)スイッチはと同等-rlptgoDです。ただし、シンボリックリンクを保持したくない状況があります。-aスイッチを使用し続け、シンボリックリンクのコピーを防ぐ方法はありますか?私は-rptgoD毎回書くことができましたが、それは少し長いです。
28 linux  rsync 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.