タグ付けされた質問 「kernel」

コンピューティングでは、カーネルはほとんどのコンピュータオペレーティングシステムの主要コンポーネントです。これは、アプリケーションとハードウェアレベルで行われる実際のデータ処理の間の橋渡しです。カーネルの責任には、システムのリソース(ハードウェアコンポーネントとソフトウェアコンポーネント間の通信)の管理が含まれます。

2
LinuxカーネルによってFIN_WAIT2状態の接続が閉じられないのはなぜですか?
Kubernetesの一部であるkube-proxyと呼ばれる長命のプロセスに問題があります。 問題は、時々接続がFIN_WAIT2状態のままになることです。 $ sudo netstat -tpn | grep FIN_WAIT2 tcp6 0 0 10.244.0.1:33132 10.244.0.35:48936 FIN_WAIT2 14125/kube-proxy tcp6 0 0 10.244.0.1:48340 10.244.0.35:56339 FIN_WAIT2 14125/kube-proxy tcp6 0 0 10.244.0.1:52619 10.244.0.35:57859 FIN_WAIT2 14125/kube-proxy tcp6 0 0 10.244.0.1:33132 10.244.0.50:36466 FIN_WAIT2 14125/kube-proxy これらの接続は時間の経過とともに積み重ねられ、プロセスが誤動作します。既にKubernetesバグトラッカーに問題を報告しましたが、そのような接続がLinuxカーネルによって閉じられない理由を理解したいと思います。 そのドキュメント(tcp_fin_timeoutの検索)によると、FIN_WAIT2状態の接続はX秒後にカーネルによって閉じられるはずです。Xは/ procから読み取ることができます。私のマシンでは、60に設定されています。 $ cat /proc/sys/net/ipv4/tcp_fin_timeout 60 正しく理解できれば、そのような接続は60秒で閉じられるはずです。しかし、これはそうではありません、彼らは何時間もそのような状態のままになります。 また、FIN_WAIT2接続は非常に珍しいことも理解していますが(これは、ホストが接続のリモートエンドからのACKを待っていることを意味します。 。 何かできることはありますか? 関連プロセスの再起動は最後の手段であることに注意してください。

5
Linuxで多くのコンテキストスイッチを生成しているタスクを調べる
vmstatによると、私のLinuxサーバー(2xCore2 Duo 2.5 GHz)は毎秒約2万のコンテキスト切り替えを常に実行しています。 # vmstat 3 procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 2 0 7292 249472 82340 2291972 0 0 0 0 0 0 7 13 79 0 0 0 7292 251808 82344 …

5
コンソールが画面をクリアしないようにしますか?
Linuxを起動すると、すぐに消去される行が1つまたは2つある場合があります。dmesgに表示されないものもあると思います。他に何もない場合は、「login:」プロンプトの前のクリアを抑制します。起動後にコンソール画面で読み取れるように、これを防ぐために設定できるカーネルコマンドまたはsysctlはありますか?
11 linux  kernel  console 

4
shmall、shmmax、shmminなどを設定する方法…一般的に、postgresqlの場合
私はPostgreSQLのドキュメントを使用して、たとえばこの構成を設定しました: >>> cat /proc/meminfo MemTotal: 16345480 kB MemFree: 1770128 kB Buffers: 382184 kB Cached: 10432632 kB SwapCached: 0 kB Active: 9228324 kB Inactive: 4621264 kB Active(anon): 7019996 kB Inactive(anon): 548528 kB Active(file): 2208328 kB Inactive(file): 4072736 kB Unevictable: 0 kB Mlocked: 0 kB SwapTotal: 0 kB SwapFree: 0 kB Dirty: …

1
LinuxでCPUアフィニティはcgroupとどのように相互作用しますか?
一連の分離されたCPUでマルチスレッドベンチマークを実行しようとしています。長い話を短くカットするには、私が最初にしてみましたisolcpusとtaskset、しかし、ヒットの問題を。今、私はcgroups / csetsで遊んでいます。 「単純な」cset shieldユースケースはうまく機能すると思います。私は4つのコアを持っているので、ベンチマークにコア1〜3を使用します(これらのコアもアダプティブティックモードに設定しました)。その後、コア0を他のすべてに使用できます。 ここのチュートリアルに従うと、次のように簡単になります。 $ sudo cset shield -c 1-3 cset: --> shielding modified with: cset: "system" cpuset of CPUSPEC(0) with 105 tasks running cset: "user" cpuset of CPUSPEC(1-3) with 0 tasks running これで、分離された「シールド」(ユーザーcset)があり、コア0はそれ以外のもの(システムcset)用です。 よし、これまでのところよさそうだ。では、を見てみましょうhtop。プロセスはすべてCPU 0に移行されているはずです。 え?一部のプロセスは、シールドされたコアで実行されているように示されています。htopにバグがあるというケースを除外tasksetするために、シールドに表示されているプロセスのアフィニティマスクを調べてみました。 多分それらのタスクは移動できませんでしたか?CPU3(シールド内にあるはずです)で実行されていると示されている任意のプロセスを取り出しhtopて、システムのcgroupに表示されるかどうかを確認しますcset。 $ cset shield -u -v | grep 864 root 864 …



1
Linuxキャッシュが大きすぎるとQEMUがメモリを割り当てられないのはなぜですか?
私のマシン[Ubuntu 16.04 64ビット、カーネル4.4]をしばらく使用すると、QEMUはカーネルキャッシュを削除する必要があります。そうしないと、RAMを割り当てることができません。 なぜそれが起こるのですか? これはサンプル実行です: ~$ free -m total used free shared buff/cache available Mem: 15050 5427 3690 56 5931 4803 Swap: 0 0 0 ~$ sudo qemu-system-x86_64 -m 10240 # and other options qemu-system-x86_64: cannot set up guest memory 'pc.ram': Cannot allocate memory ~$ echo 3 | sudo tee …

1
sysctl tcp_retries1が3に設定されていると、TCPパケットが7回再送信されます-なぜですか?
Ubuntu 12.04 宛先が受信した確認を受信しないときに、TCPがパケットを再送信しようとする回数をよりよく理解しようとしています。tcpのmanページを読んだ後、これがsysctl tcp_retries1によって制御されていることは明らかでした。 tcp_retries1 (integer; default: 3) The number of times TCP will attempt to retransmit a packet on an established connection normally, without the extra effort of getting the network layers involved. Once we exceed this number of retransmits, we first have the network layer update the route …

2
何が生成された/autoconf.hを作成していますか?
ヘッダーだけでなく、カーネルソースを必要とするソフトウェアを構築しようとしています。そこで、centos src rpmを使用してカーネルソースをダウンロードしました。 ただし、autoconf.hがありません。 試しました .configを配置します(/ bootからコピーします)。 走る make oldconfig では、autoconf.hファイルを作成しているものは何でしょうか。実際にカーネルを構築する必要がありますか?
9 linux  kernel  make 

2
まだaacraidを取得中:推奨される手順を実行した後、ホストアダプターは要求エラーを中止します
悪名高いaacraid:高I / Oでの新しいAdaptec RAIDコントローラーでのホストアダプターアボート要求エラーが発生します。Adaptecsでさえ、いくつかのフォーラムを読みました。/sys/block/sdX/device/timeoutの値を45に設定すると、これが修正されます。しかし、私はUbuntuのサーバー12.04を実行しています。このサーバーのデフォルト値は45です。私はまた、モボのBIOSを最新のものに更新するという次の提案も試しました。 これらの手順を実行した後でも、他の誰かがこの「aacraid:Host adapter abort request」エラーに遭遇したかどうかはわかりません。 これは私のsyslogに表示されるものです: kernel: [ 5493.523282] aacraid: Host adapter abort request (4,0,0,0) Jan 6 20:29:15 server kernel: [ 5493.523309] aacraid: Host adapter abort request (4,0,0,0) Jan 6 20:29:15 server kernel: [ 5493.523375] aacraid: Host adapter reset request. SCSI hang ? 私のウナメがここにある Linux server 3.2.0-29-generic …
9 kernel  scsi 

1
Debianに新しいカーネルをブートさせる方法は?
私は、リモートシステムのGrub2(1.98 + 20100804-14 + squeeze1)の下でLinux 2.6.32-5-amd64を使用して、Debian 6、Debian GNU / Linuxを実行しています(起動前メッセージを表示する可能性はありません)。新しいカーネルをコンパイルしてインストールしましたが、起動できません。 私がやった事: 次の方法でパッケージをインストールしました: dpkg -i linux-headers-3.5.3.20120914-amd64_3.5.3.20120914-amd64-10.00.Custom_amd64.deb linux-image-3.5.3.20120914-amd64_3.5.3.20120914-amd64-10.00.Custom_amd64.deb これにより、Grubの構成が更新されました。/boot/grub/grub.cfgには次のものが含まれています。 menuentry 'Debian GNU/Linux, with Linux 3.5.3.20120914-amd64' --class debian --class gnu-linux --class gnu --class os { insmod raid insmod mdraid insmod part_msdos insmod part_msdos insmod ext2 set root='(md0)' search --no-floppy --fs-uuid --set 5a3882a9-c7df-4f6a-9feb-f03e3e37be01 echo …
9 debian  boot  kernel  grub2 

2
Linuxカーネルのバージョン管理:Debian SidとUbuntu Precise
2つのマシンをセットアップしました。 1台のマシンにUbuntu Precise 12.04ベータ版をインストールし、最新のパッケージにdist-upgradedしました。 他のマシンにDebian Sid Unstableをインストールし、最新のパッケージにdist-upgradedしました。 Ubuntuマシンでは、una​​me -aは次のようになります。 Linux 3.2.0-20-generic#32-Ubuntu SMP Thu Mar 22 02:22:46 UTC 2012 x86_64 x86_64 x86_64 GNU / Linux Debianマシンでは、una​​me -aは次のようになります。 Linux 3.2.0-2-amd64#1 SMP Wed Mar 28 13:28:04 UTC 2012 x86_64 GNU / Linux 私の質問はカーネルのバージョンについてです: Ubuntu: 3.2.0-20-generic Debian: 3.2.0-2-amd64 Linuxのバージョン3.2がリリースされました: linux-3.2.tar.gz 05-Jan-2012 00:40 94M それ以来、13ポイントのリリース、kernel.orgの3.2.1 …

4
ボリュームをfsckするのにどのくらい時間がかかりますか?
現在300〜500万ページビューを提供しているウェブサイトを運営しています。私たちのサイトはファイル共有サイトなので、250,000ファイルと数千のシンボリックリンクが含まれています。 ハードディスクは1500GB SATAディスクです。 使用hdparmして、ハードディスクの速度が15〜20 MB /秒(80 MB /秒)に低下したことがわかりました。 それではfsck、ディスクの問題を修正するために実行したいと思います。 ウィルfsckこの問題を解決するのだろうか? どのくらいの時間がかかります fsck完了するまでにかかりますか(予定しているダウンタイムを計算したいだけです)?

2
Linuxでiノード数を増やすことはできますか?
Linux MIPSルーターと2.4.17カーネルを使用しています。ルートfsはtmpfsで、/ romはcramfsです。tmpfsには4MBの空きメモリと3MBの空きメモリがあります。 いくつかの新しい空のファイルを作成できますが、次のファイルは「スペース不足」で失敗します。ただし、既存のファイルに1MBのデータを追加できます。したがって、私の問題はiノード数にあります。 そして私の質問: iノードを動的に増やす方法はありますか? 動的に増やすことができない場合-カーネルソースのどこで増やすことができますか?
9 linux  kernel  inode 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.