タグ付けされた質問 「linux」

Linuxは、Linuxカーネルに基づくUNIXのようなオープンソースオペレーティングシステムの総称です。

2
AWSでsftpインスタンスの負荷を分散する方法
でsftpサーバーの負荷を分散できることを知りたいですAWS。2台のサーバーがあり、各サーバーがs3fs-fuse同じサーバーをS3 bucketマウントポイントにマウントするために使用しています。私のec2インスタンスはどちらもマウントポイントに対して読み取り/書き込みを行うことができ、からはS3、両方のサーバーのファイルを表示できます。 私が探しているのは、SFTPファイルを転送しAmazon S3、ファイルを保存するために使用することです。ファイルは毎日アップロードされ、ダウンロードされます。 https://github.com/s3fs-fuse/s3fs-fuse 次のステップとして、sftpサーバーの負荷を分散する方法を知りたいので、ユーザーが特定のIPアドレスに接続すると、sftpサーバーの1つにリダイレクトされます。を調べましたがelastic load balancers、特定のポートしか許可していないようです。私も調査しましたがHAProxy、そのソリューションがどれほど安全かはわかりません。私はHIPAAコンプライアンスを考慮に入れなければなりません。ベンダーがサポートしていないため、ロードバランサーは静的IPアドレスである必要がありますDNS hostnames。

1
Linux ntpdうるう秒準備
2015年6月30日23:59:60 UTCのうるう秒があります。 Linuxベースのstratum 1 NTPサーバーがあり、GPSを基準クロックとして使用しています。サーバーは「デフォルト」のntp.orgを使用していますntpd。 うるう秒以降に正しい時刻が利用できるようにするには、うるう秒をどのように準備すればよいですか? ウィルntpdサーバが正常に動作しますか? 不確かな場合、これを事前にテストする方法はありますか?
10 linux  ntp  ntpd  gps  leapsecond 

4
Linuxにデバイスの問題でスペースが残っていない
SUSE Linux OSがあります。 $ uname -a Linux 3.0.13-0.27-default #1 SMP Wed Feb 15 13:33:49 UTC 2012 x86_64 x86_64 x86_64 GNU/Linux 特定のファイルについてのみ、ファイルの作成が失敗し、デバイスにスペースが残っていません。他のファイルを作成できますが、何が問題になっていますか?現在のシナリオでは: iノードの使用率はわずか47%です。 $ df -i . Filesystem Inodes IUsed IFree IUse% Mounted on /dev/mapper/appvg-dsfs 39321600 18218000 21103600 47% /dsfs ディスク使用量はわずか82% $ df -h . Filesystem Size Used Avail Use% Mounted …
10 linux 


1
CentOS 6.5でWireSharkを開くことができない
CentOS 6.5にWireSharkをインストールし、Yumを使用して次のパッケージをインストールしました。 Dependencies Resolved ================================================================================ Package Arch Version Repository Size ================================================================================ Installing: wireshark x86_64 1.8.10-8.el6_6 updates 11 M wireshark-devel x86_64 1.8.10-8.el6_6 updates 905 k wireshark-gnome x86_64 1.8.10-8.el6_6 updates 855 k Installing for dependencies: glib2-devel x86_64 2.28.8-4.el6 base 299 k libsmi x86_64 0.4.8-4.el6 base 2.4 M Updating for dependencies: glib2 i686 …

1
ipmitoolを使用したネットワークブート順序(pxe)の変更
ipmitoolを使用して、起動順序を最初に特定のインターフェイスからpxe起動に変更しようとしています。 私の知る限り、このipmitoolツールは起動デバイスを変更するオプションを提供しますが、インターフェースは変更しません。たとえば、起動順序をpxeに変更できます。 ipmitool -I lanplus -H bmc_ip -U root -P passwd chassis bootdev pxe options=persistent ネットワークブート順序(つまり、pxeブートの特定のインターフェイス)を設定する方法もありますか? ipmitoolを介したオプションbootdevまたはbootparamオプションがないようです。rawモードを使用して、または他の方法でこれを達成できるかどうか疑問に思っていましたか? 明白な代替手段は、手動で、またはipmitoolを介してBIOSを入力することです。しかし、私は手動の操作なしでこれを行うことに興味があります。

1
VMware仮想マシンのクローンを作成する場合、MACアドレスとUUIDの競合を防ぐにはどうすればよいですか?
VMware Fusion(Mac用)とVMware ESXi / vSphereの両方で次の問題に遭遇しました。多くの方はこの問題に精通しており、VMware KBで説明されています:「ネットワーキングがクローンLinux仮想マシンで機能しない(2002767)」。 CentOS VMを作成します。 これは、最小限のソフトウェアセットと機能するネットワークスタックを備えた最小限のVMです。アイデアは、最小限のVMを取得し、それを複製して、後でソフトウェアを追加することです。 そのVMのクローンを作成する VMware FusionまたはvCenterは、クローンされたVMのネットワークインターフェイスに新しいMACアドレスを割り当てます。 Linuxはこの新しいMACアドレスを認識しないため、ネットワーキングは機能しません。このファイルに/etc/sysconfig/network-scripts/ifcfg-ethNは、最初のマシンのインターフェースのMACアドレスが含まれています。 これを修正するには、新しいVMのMACアドレスを見つけ、ifcfg-ethNこのMACを編集してHWADDR=フィールドに追加する必要があります。MACを単純に切り取ってフィールドに貼り付けることはできないので、特にペンと紙にMACを書き留めておくのを忘れた場合は、エラーが発生しやすくなります。 (ボーナスポイント)新しいVMでは、eth0、eth1などが間違った順序で表示されることがよくあります。これを修正するには、周りに難解なダンスが含まれます/etc/udev/rules.d 私はこれを行うことができますが、何かをテストするために新しいVMを起動したいだけの場合、それはエラーが発生しやすく、一種の苦痛です。 この手動プロセスを簡略化する方法はありますか?新しいマシンのクローンを作成するとき、MACアドレスの問題をどのように修正しますか?


1
Linux; stripe_cache_sizeとは何ですか?
現在、mdadmユーティリティを使用してLinuxでソフトウェアRAIDを構築しています。そのRAIDのstripe_cache_size値を増やす方法と、stripe_cache_sizeの適切な値を計算する方法を説明する記事をいくつか読んだことがあります。 私は16384に増やし、/ proc / mdstatの新しいRAID5での現在の同期レートが71065K /秒から143690K /秒(2倍)に急上昇しました。これは朗報です。また、RAM使用量の一致と予想される増加もわかりますが、この設定の機能とその動作に関するドキュメントは見つかりません。 これは、RAMに存在するRAIDのある種のキャッシュのようです。その名前とそれを変更することによる影響から、私が知ることができるのはそれだけです。この設定とその説明に関する公式の「Linux」ドキュメントはありますか?
10 linux  cache  mdadm 

3
リンク集約(LACP / 802.3ad)最大スループット
Linuxでのボンディングされたインターフェースに関していくつかの混乱した動作が見られます。誰かが私のためにそれを片付けてくれることを期待して、状況をそこに捨てたいと思います。 2台のサーバーがあります。サーバー1(S1)には4つの1ギガビットイーサネット接続があります。サーバー2(S2)には、2つの1ギガビットイーサネット接続があります。カーネル3.11.0-15(lts-saucy linux-genericパッケージから)を使用していますが、どちらのサーバーもUbuntu 12.04を実行しています。 両方のサーバーには、それぞれのネットワークインターフェイスがすべて、次の構成(単一の)で単一のbond0インターフェイスにバンドルされています/etc/network/interfaces。 bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] サーバー間には、問題のポートでLACP用に正しく構成されている(私が思う)いくつかのHPスイッチがあります。 これでリンクが機能します。ネットワークトラフィックは両方のマシンとの間でスムーズに送受信されます。そして、それぞれのインターフェースがすべて使用されているため、集約が完全に失敗しているわけではありません。ただし、これらの2つのサーバー間で可能な限り多くの帯域幅が必要であり、期待する最大2Gbit / sが得られません。 私のテストでは、各サーバーが各TCP接続(iperf、scp、nfsなど)を単一のスレーブインターフェイスに割り当てているように見えます。基本的に、すべてが最大1ギガビットで制限されているようです。 を設定するとbond-xmit-hash-policy layer3+4、iperf -c S1 -P22つのスレーブインターフェースでの送信に使用できますが、サーバー側では、まだ1つのスレーブインターフェースでのみ受信が行われているため、合計スループットは1Gbit / sに制限されます。つまり、クライアントは〜40-50MB / sを示します2つのスレーブインターフェイスでは、サーバーは1つのスレーブインターフェイスで最大100MB / sを示します。bond-xmit-hash-policy送信を設定しないと、スレーブインターフェースも1つに制限されます。 LACPはこの種の接続バンドリングを許可し、たとえば、単一のscp転送が2つのホスト間で利用可能なすべてのインターフェースを利用できるようにするべきだという印象を受けました。 LACPについての私の理解は間違っていますか?または、どこかにいくつかの設定オプションを見逃しましたか?調査のための提案や手がかりは大歓迎です!
10 linux  bonding  lacp 

4
AWS VPC + IPtables + NAT:ポート転送が機能していません
昨日、ここに質問を投稿しましたが、言葉でははっきりしていなかったと思います。ところで、この質問は重複ではありません。 以下のようにAWS VPCセットアップがあります。 目標/問題:インターネットからサーバーAにSSH接続します。そしてそれは働いていません。 サーバーAはプライベートサブネットにあるため、インターネットから直接サーバーAにSSH接続できるように、NATインスタンスでiptables NATを有効にしたい これとこれをフォローしています NATインスタンスで以下のコマンドを実行しました。 NAT# iptables -t nat -A PREROUTING -p tcp --dport 2222 -j DNAT --to-destination 10.0.1.243:22 NATインスタンスでIP転送が有効になっています。 NAT# sysctl -p net.ipv4.ip_forward = 1 MASQUERADEはNATインスタンスで実行されています: NAT# iptables -t nat -vnL POSTROUTING Chain POSTROUTING (policy ACCEPT 6 packets, 312 bytes) pkts bytes target prot opt in …

5
Nagiosサーバーのベストプラクティス?
中規模のNagiosサーバーを実行しています。現在、約40のサーバーと180のサービスを監視しており、日々成長しているだけです。 非常に難解な方法で構成された古いNagiosセットアップから移行したため、すべてを最初から再構成する必要がありました。 サーバーが実行され、必要なほとんどの機能が動作するようになったので、サーバーをもう少しスケーラブルにすることを検討しています。現在、各ホストは内の独自のファイルで/etc/nagios/hosts/あり、各ホストは同じファイル内にすべてのサービスを持っています。これは明らかに最適ではありませんが、私の構成すべてを数百の異なるファイルに難読化することもありません。 だから私の質問はこれです:経験豊富なNagios管理者にとって、設定を過度に複雑にすることなくホストグループ/サービスグル​​ープを利用する最良の方法は何ですか?

1
何百万もの小さなファイルのブロックサイズ
Debian WheezyのハードウェアRAID1(LSI MegaRaidの可能性があります)に2x 4TBディスクがあります。物理ブロックサイズは4kBです。1億から2億の小さなファイル(3〜10kB)を保存します。私はパフォーマンスを求めているのではなく、ストレージを節約するための最適なファイルシステムとブロックサイズを求めています。8200バイトのファイルをブロックサイズ4kBのext4にコピーしました。これには32kBのディスクが必要でした!?その理由はジャーナリングですか?では、そのような小さなファイルのためにほとんどのストレージを節約するには、どのようなオプションがありますか?

1
名前空間からではなくホストからのMacvlanベースのインターフェースping
[編集] 本番システムは現在、物理システムとESXiベースのシステムが混在しています。運用前の環境であっても、virtualboxを使用することはありません。これは、デスクトップで直接問題をすばやく絞り込むためにのみ使用されました。 メタの「保留中」の説明をありがとう! [/編集] 私のセットアップ: プライベートネットワークvboxnet110.0.7.0/24 1ホスト、ubuntuデスクトップ 1 VM、ubuntuサーバー(VirtualBox) 配置レイアウト: ホスト:10.0.7.1 VM:10.0.7.101 VM MACネームスペース:10.0.7.102 でVM、次のコマンドを実行しました。 ip netns add mac # create a new nmespace ip link add link eth0 mac0 type macvlan # create a new macvlan interface ip link set mac0 netns mac macVM内のネームスペース: ip link set lo up …

2
ローカルWi-Fiに仮想マシン(vagrant)を公開する
Vagrant(www.vagrantup.com)を使用してローカル仮想マシン(ubuntu 12.4)をセットアップし、ローカルwifiネットワークでそのリソースを共有する必要があります。これは基本的に、ローカルネットワーク上の他のマシンからアクセスできるWebサーバーを実行しています。 私のローカルwifiアダプターはルーターから動的IPアドレスを取得します。 現在の構成は次のようになっていますが、IPを使用して別のマシンからマシンにアクセスできません。 config.vm.network :private_network, ip: "192.168.56.101" config.vm.network :forwarded_port, guest: 80, host: 8080 どうすればこれを実現できますか?どんな助けでも大歓迎です!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.