タグ付けされた質問 「performance」

サーバーのハードウェアとソフトウェアのパフォーマンス、またはネットワークのパフォーマンスに関する質問。

9
最近のシステムでは、ディスク圧縮を使用すると全体的なパフォーマンスが向上しますか?
CPUの増加がしばらくディスク速度を上回ったようです。最新のデュアルコアIntel / AMD CPUと単一の平均SATAディスクを搭載したデスクトップまたはラップトップを想定すると、ほとんどすべてのディスクで圧縮を実行すると、全体的なパフォーマンスが向上しますか?基本的に、減少したディスク帯域幅は、増加したCPU負荷を補う以上のものですか?本当の答えは「それはあなたが何をしているのかによる」と確信しています。この質問をすることで、このパイプを実行した人がいて、例や落とし穴をいくつか示したいと思っています。

5
FreeBSD刑務所と仮想化パフォーマンス
私はすぐに自分用の素敵なサーバー(quad-cpu HP DL585のようなもの)を個人用(ホーム関連のもの、データマイニングプロジェクト、Webサーバー、およびいくつかのcronジョブ)で購入します。専用環境。 私はFreeBSDとLinuxサーバーの管理と仮想化のセットアップ(XenとVmWare)に慣れているので、仮想化はかなり自然に行われました。しかし、FreeBSDを使用する予定があるので、jailも使用できます(FreeBSD以外のOSの実行には興味がありません)。 しかし、私はFreeBSDの刑務所での経験がなく、以前にそれらを使用する予定はありませんでした。ですから、私はいくつかの経験と、おそらく両方のドメインでの経験があり、どちらが私の謙虚なニーズに最も適しているかをアドバイスしてくれる誰かを探しています。

2
ZFSプールの遅い順次読み取り
この問題について関連する質問がありますが、複雑すぎて大きすぎたため、問題をNFSとローカルの問題に分割する必要があると判断しました。私はzfs-discussメーリングリストでこれについて尋ねようとしましたが、あまり成功しませんでした。 同じサーバー上のNFS / CIFSディレクトリ間の低速コピー 概要:設定方法と期待される内容 4つのディスクを持つZFSプールがあります。ストライプ化された2つのミラーとして構成された2TB RED(RAID 10)。Linuxでは、zfsonlinux。キャッシュまたはログデバイスはありません。 データはミラー間で分散されます(ZFSにとって重要) 各ディスクは147MB /秒で並列に読み取り(raw w / dd)、合計で588MB /秒のスループットを実現します。 同様の4TB REDディスクのベンチマークに基づいて、各ディスクからのシーケンシャルデータの約115MB /秒の書き込み、138MB /秒の読み取り、および50MB /秒の再書き込みを期待しています。最近はどのディスクでも実行できるため、100MB /秒以上の読み取りまたは書き込みを期待しています。 負荷がかかってシーケンシャルデータの読み取りまたは書き込みを行っているときに、4つのディスクすべてでIO使用率が100%になると思いました。そして、そのディスクは100%の使用率で100MB /秒以上を出力します。 このプールでは、1つのディスクで約2倍の書き込み、2倍の書き換え、4倍の読み取りパフォーマンスが得られると思いました。 NEW同じプールのext4 zvolはZFSとほぼ同じ速度になると思いました 私が実際に得るもの プールの読み取りパフォーマンスが思ったほど高くない 数日前のプールでのbonnie ++ベンチマーク バージョン1.97 ------順次出力-------順次入力--ランダム- 同時実行性1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- マシンサイズK /秒%CP K /秒%CP K /秒%CP K /秒%CP K …
10 linux  raid  performance  zfs  zpool 

4
OpenVPNパフォーマンスの向上
私はOpenVPNのパフォーマンスを改善しようと試みており、これが私の現在のセットアップです。 cat /etc/openvpn/server.conf port 443 #- port proto tcp #- protocol dev tun #tun-mtu 1500 tun-mtu-extra 32 #mssfix 1450 tun-mtu 64800 mssfix 1440 reneg-sec 0 ca /etc/openvpn/easy-rsa/2.0/keys/ca.crt cert /etc/openvpn/easy-rsa/2.0/keys/server.crt key /etc/openvpn/easy-rsa/2.0/keys/server.key dh /etc/openvpn/easy-rsa/2.0/keys/dh1024.pem plugin /etc/openvpn/openvpn-auth-pam.so /etc/pam.d/login #plugin /usr/share/openvpn/plugin/lib/openvpn-auth-pam.so /etc/pam.d/login #- Comment this line if you are using FreeRADIUS #plugin /etc/openvpn/radiusplugin.so …

4
1つの大きなRAID 10と複数の小さなアレイを比較しますか?
私の質問は、特定のアプリケーション用に小さなアレイを作成するのではなく、RAID 10などの高速な読み取りと書き込みのパフォーマンスを備えた1つの大きなアレイを単に作成することが適切なのはいつですか? 全体的なI / O要件がそれほど大きくない場合、優れた読み取りおよび書き込みパフォーマンスを持つ単一のアレイは、さまざまなアクセスパターンを持つアプリケーションがピークに達した(おそらくまれな)時間を除いて、すべてのアプリケーションに全体的に優れたパフォーマンスを提供できるようです同時に(データベースが非難されている間に大量の大きなファイルをコピーする)。 ペアスピンドルをトランザクションログなどの特定のタスク専用にしていて、ワークロードで汗をかいてさえいない場合...そのワークロードをより大きなRAID 10に配置しないのはなぜですか?これらのスピンドルは、時間の60%をかき回すのではなく、他のワークロードに寄与することができます。 PS、私の特定のケースでは、RAID 10のコストオーバーヘッドは要因ではありません。これは、複数のRAID 1アレイと1つの小さめのRAID 5を作成することを考えているためです。
10 performance  raid 



1
9x7ドライブraidz2(ZFS ZoL 0.8.1)のシーケンシャル速度が遅い
Ubuntu 18.04で、256K以上のリクエストサイズのシーケンシャルな読み取りと書き込み(バックアップ用)を介して構築された大きなZFSプールを実行しています。高いスループットとスペース効率の必要性、およびランダムな小ブロックパフォーマンスの必要性が少ないことを考慮して、ストライプミラーではなくストライプraidz2を使用しました。 ただし、256Kのシーケンシャルリードパフォーマンスは予想よりもはるかに低くなっています(100〜200MBps、ピークは最大600MBps)。zvolがiostatで最大99%のiowaitに達している場合、バッキングデバイスは通常10から40%のiowaitで動作します。これは、バックプレーンまたはCPUであってはならないので、ボトルネックが構成に欠けていることを示唆していますこのシステム、およびシーケンシャルワークロードは、ARCをあまり強く動作させるべきではありません。 私はモジュールパラメータ(以下の現在の構成)でかなり遊んだり、数百の記事を読んだり、OpenZFS githubの問題などを行ったりしました。プリフェッチと集約を調整すると、このパフォーマンスレベルになりました。デフォルトでは、約50MBpsで実行していました。 ZFSがディスクにTINYリクエストを送信していたため、シーケンシャルリード(約16K)。集約とプリフェッチは正常に機能していると思いますが(おそらく)、iostatのディスク読み取りは平均で約64Kです。 NICはLIO iscsiターゲットであり、cxgbitオフロード+ Windows Chelsio iscsiイニシエーターはZFS zvolsの外側で適切に機能し、直接マッピングされたオプタンがNICでほぼフルラインレートを返します(約3.5GBpsの読み取りと書き込み)。 期待しすぎですか?ZFSはパフォーマンスよりも安全性を優先することを知っていますが、7x9 raidz2が単一の9ドライブmdadm raid6よりも優れた順次読み取りを提供することを期待しています。 システムの仕様とログ/構成ファイル: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

6
iSCSIとAoEの両方のパフォーマンスが低い
手ごろな速度のストレージを探しています。低予算のため、ソフトウェアiSCSIまたはAoEターゲットを使用することにしました。生産インフラストラクチャを変更する前に、いくつかのテストを行って、最適なテクノロジーを選択しています。 テストに使用するもの: ターゲットとしてのFujitsu Siemens RX200 S4 イニシエーターとしてのFujitsu Siemens RX200 S4 NetGearマネージド1GBitスイッチ オンボードNIC(Broadcom w / TOE)、EdiMax NIC、Broadcom NIC w / TOE-すべて1GBit ターゲットサーバーは、6 TBの2 TB WD Blue SATAドライブを備えたQLogicコントローラーを使用しています。 ターゲットとイニシエーターの両方のオペレーティングシステムがUbuntu 16.04 LTSであり、すべてのアップデートが適用されています。スイッチは保管専用です。結合とマルチパスをテストします。 私たちの問題は、読み取り速度が遅いことです。テストにはdd、40〜100 GBのファイルを使用しています。 ターゲットサーバーでのローカルの読み取りと書き込みは300 MB /秒以上です。 iSCSIまたはAoEによるサーバーへの書き込みは、200MB /秒以上であり、満足しています。 サーバーからの読み取りは常に95-99MB / sです。 私たちはietd、aoetools、LIOを試しました。2つのNICのボンドを使用しました。バランスrrとLACP、rrを使用したマルチパスです。通常およびジャンボフレームを使用。最後に、ターゲットとホスト間で直接イーサネット接続を行いました(スイッチなし)。 すべてのテストで得られる結果は同じではありません(もちろん、TOEとiSCSIなしで一般的なNICを使用すると、結果が20〜30%悪くなります)。 iperfを使用したテストネットワークでは、約200MB /秒(2GBit)の転送が見られました。bmonを使用してターゲットでNICの使用状況を監視すると、両方のデバイスの使用率が等しいことがわかりました(読み取りの場合はそれぞれ約50MB / s、書き込みの場合は約100MB / s)。 運が悪かったので、3番目のNIC(もちろん両面)を使用することにしました。結果は奇妙でした: NIC 2枚-各50MB …

2
バインドDNS再帰が遅い
Bind 9.10の最新の安定版リリースを使用して、再帰DNSサーバーをセットアップしました 再帰的なDNSルックアップは非常に遅いことがわかりました。1〜3秒のどこでも。ルックアップがキャッシュに入ると、DNSは予想どおり数ミリ秒で解決します。 再帰的なルックアップにROOTヒントを使用していますが、これがスローの原因であるようです。フォワーダーを構成する場合、DNS解決は100〜300ミリ秒の賢明な再帰時間になります。 私たちがセットアップしているサービスについては、フォワーダーに依存したくないので、ルートヒントを使用したいと思います。 named.confファイルの主な構成は次のとおりです。パフォーマンスの向上に役立つヒントがあればすばらしいでしょう。 options{ allow-recursion { any; }; allow-query-cache { any; }; allow-query { any; }; listen-on port 53 { any; }; listen-on-v6 port 53 { any; }; dnssec-enable yes; dnssec-validation yes; dnssec-lookaside auto; zone-statistics yes; max-cache-ttl 3600; max-ncache-ttl 3600; /* Path to ISC DLV key */ …


3
PostgreSQLの遅いコミットパフォーマンス
PostgreSQLの設定で問題が発生しています。いくつかのベンチマークの後、非常に単純なクエリには比較的長い時間がかかることがわかりました。詳しく調べたところ、実際のCOMMITコマンドは本当に遅いようです。 次の表を使用して、非常に簡単なテストを実行しました。 CREATE TABLE test ( id serial primary key, foo varchar(16), ); すべてのステートメントのログオンをオンにした後、次のクエリを10000回実行しました。 BEGIN; INSERT INTO test (a) VALUES ('bar'); COMMIT; BEGINとINSERTの完了には1ミリ秒未満かかりますが、COMMITの完了には平均22ミリ秒かかります。 自分のPCで同じベンチマークを実行すると、かなり遅くなりますが、BEGINステートメントとINSERTステートメントの平均は同じになりますが、平均COMMITは約0.4ミリ秒(20倍以上高速)です。 いくつか読んだ後、私はpg_test_fsyncツールを試して問題を突き止めようとしました。サーバーでこれらの結果を取得します。 $ ./pg_test_fsync -o 1024 1024 operations per test O_DIRECT supported on this platform for open_datasync and open_sync. Compare file sync methods using one 8kB write: …

1
KVM / Qemu、Ubuntu:より多くのゲストCPUがディスクI / Oを急速に拡張するのはなぜですか?
2つのノードで構成されるハートビート/ DRBD / Pacemaker / KVM / Qemu / libvirtクラスターがあります。各ノードは次のパッケージ/バージョンでUbuntu 12.04 64ビットを実行します。 カーネル3.2.0-32-generic#51-Ubuntu SMP DRBD 8.3.11 qemu-kvm 1.0 + noroms-0ubuntu14.3 libvirt 0.9.13 ペースメーカー1.1.7 ハートビート3.0.5 仮想ゲストはUbuntu 10.04 64ビットおよびUbuntu 12.04 64ビットを実行しています。最高のCPUパフォーマンスを実現するために、libvirt機能を使用してホストCPUの機能を仮想ゲストに渡します。 これがこのクラスターの一般的なセットアップです。 VMの「監視」には4つのvCPUがあります VMの「監視」はideをディスクインターフェイスとして使用します(現在、明らかな理由によりVirtIOに切り替えています) 最近、いくつかの簡単なテストを実行しました。私は彼らが専門家ではなく、高い基準に達していないことを知っていますが、すでに強い傾向を示しています: ノードAはVM「bla」を実行していますノードBはVM「監視」を実行しています VM "bla"からVM "monitoring"にファイルをrsyncすると、12 MB /秒しか達成されません。VMの「監視」内で単純なdd if = / dev / null of = / tmp / …

5
2つの同一のUbuntuサーバー間のパフォーマンスの大きな違いの原因を見つけるにはどうすればよいですか?
データセンターの同じラック(ロードバランサーの背後)で2台のDell R410サーバーを実行しています。どちらも同じハードウェア構成で、Ubuntu 10.4を実行し、同じパッケージをインストールし、同じJava Webサーバーを実行し(他の負荷なし)、2つの間に実質的なパフォーマンスの違いが見られます。 パフォーマンスの違いは、両方のサーバーの平均応答時間(ネットワークレイテンシなしのJavaアプリ自体で測定)で最も明白です。一方は他方よりも20〜30%高速で、非常に一貫しています。 以前dstatは、コンテキストスイッチ、IO、スワッピングなどがあるかどうかを考えていましたが、違いの理由はわかりません。同じワークロード(スワッピングなし、実質的にIOなし)では、1つのサーバーでのCPU使用率と負荷が高くなります。 したがって、違いは主にCPUバウンドであるように見えますが、sysbench(他のすべてのロードをオフにして)を使用した単純なCPUベンチマークは違いをもたらしましたが、それはわずか6%でした。だから、多分それはCPUだけでなくメモリパフォーマンスでもあります。 これまでに確認したこと: すべてのコンポーネントのファームウェアリビジョン(同一) BIOS設定(私はを使用してダンプをdmidecode行いましたが、違いは示されていませんでした) 私は比較しました/proc/cpuinfo、違いはありません。 の出力を比較しましたがcpufreq-info、違いはありません。 Java / JVMパラメータ(両方のシステムで同じバージョンとパラメータ) また、数ヶ月前にRAMを完全に交換しましたが、何の影響もありませんでした。 迷っています。何が起こっているのか、どうすればわかりますか? 更新:イェーイ!現在、両方のサーバーは同等に機能します。これは、jim_m_somewhereがコメントで名前を付けた「パワーCRAP」設定でした。「電源管理」のBIOSオプションは、高速サーバーでは「最大パフォーマンス」、もう1つでは「アクティブ電源コントローラー」(Dellのデフォルト設定)にありました。明らかに、2年前にその設定を行ったことを忘れており、すべてのサーバーでその設定を行ったわけではありません。非常に役立つ情報をありがとうございます。

4
ネットワークスループットの問題(ARP関連)
私が働いている小さな大学には、非常に奇妙なネットワークの問題があります。ここでアドバイスやアイデアを探しています。夏は大丈夫でしたが、秋学期に強制的にキャンパスに戻った数日後にトラブルが起こりました。 症状 主な症状は、インターネットアクセスは機能することですが、非常に遅くなります...タイムアウトに達することがよくあります。例として、Speedtest.netの典型的な結果は.4Mbpsのダウンロードを返しますが、アップロード速度は3〜8 Mbpsです。症状が少ない場合は、ファイルサーバーとの間でデータを転送するパフォーマンスが大幅に制限されている場合や、場合によってはコンピューターにログインできない(ドメインコントローラーに到達できない)場合があります。この問題は複数のVLANにまたがり、私たちが運営するほぼすべてのVLANのデバイスに影響を与えています。 この問題は、ネットワーク上のすべてのマシンには影響しません。影響を受けていないマシンでは、通常、speedtest.netから少なくとも 11Mbpsのダウンロードが見られますが、そのときのキャンパストラフィックのパターンによっては、はるかに多くなる可能性があります。 大きな問題には1つのバリエーションがあります。ユーザーがほぼすべてのマシンにログインできなかったVLANが1つあります。ITスタッフはローカルの管理者アカウント(または場合によってはキャッシュされた資格情報)を使用してログインし、そこからリリース/更新またはゲートウェイにpingを実行すると、しばらくの間マシンが動作します。この問題を複雑にしているのは、このVLANがディープフリーズと呼ばれるソフトウェアを使用して再起動後にハードドライブを完全にリセットするコンピューターラボをカバーしていることです。低レベルの情報を数週間永続的に変更していないマシン上の古いデータが原因で、同じ問題が別の形で現れる可能性があります。ただし、新しいVLANを作成し、ラボを新しいVLANホールセールに移動することで、これを解決することができました。 扇動 最終的に、影響を受けるすべてのマシンに最近のdhcpリースがあることに気付きました。dhcpリースが更新される時期を監視することで、マシンが「遅くなる」時期を予測できます。テストVLANのリース時間を非常に短く設定してみましたが、マシンが遅くなる時期を予測する機能がなくなりました。静的IPを備えたマシンは、ほとんど常に正常に機能します。アドレスを手動で解放または更新しても、マシンが遅くなることはありません。実際、一部のケースでは、このプロセスは修正されていますその状態のマシン。しかし、ほとんどの場合、それは役に立ちません。また、ラップトップなどのモバイルマシンが新しいVLANに接続すると、速度が低下する可能性があることにも気付きました。キャンパス内のワイヤレスは「ゾーン」に分割され、各ゾーンは小さな建物のセットにマッピングされます。新しい建物に移動すると、ゾーンに配置され、新しい住所を取得する可能性があります。スリープモードから再開するマシンも低速になる可能性が非常に高くなります。 緩和 影響を受けるマシンでarpキャッシュをクリアすると、常にではないが、正常に機能する場合があります。すでに述べたように、ローカルマシンのIPアドレスを解放または更新すると、そのマシンを修正できますが、保証はされません。デフォルトゲートウェイにpingを実行すると、速度の遅いマシンでも役立つ場合があります。 この問題を軽減するのに最も役立つと思われるのは、コアレイヤー3スイッチのarpキャッシュをクリアすることです。このスイッチは、すべてのVLANのデフォルトゲートウェイとしてdhcpシステムに使用され、VLAN間ルーティングを処理します。モデルは3Com 4900SXです。この問題を緩和するために、スイッチのキャッシュタイムアウトを可能な限り短い時間に設定していますが、効果はありません。また、スイッチに自動的に接続してキャッシュをリセットするために、数分ごとに実行されるスクリプトをまとめました。残念ながら、これは常に機能するとは限らず、一部のマシンがしばらくの間低速状態になる可能性さえあります(ただし、これらは数分後に自動的に修正されるようです)。現在、コアスイッチがARPキャッシュをクリアするように強制するために10分ごとに実行されるスケジュールされたジョブがありますが、これは完全または望ましいことにはほど遠いものです。 再生 これで、自由にスローステートに移行できるテストマシンが完成しました。これは、各VLANにポートが設定されたスイッチに接続されています。異なるVLANに接続することでマシンの速度が遅くなり、1つまたは2つの新しい接続の後は遅くなります。 このセクションでは、これが前の条件の開始時に以前に発生したことにも注目する価値がありますが、過去には、問題は数日後にそれ自体で解消されました。これは、多くの診断作業を行う機会が得られる前に解決しました。そのため、今度は「長期」にこれほど長くドラッグすることを許可したのです。これは一時的な状況であると予想されていました。 その他の要因 昨年、完全に約6台のスイッチが完全に故障したことは言及に値します。これらは主に2003/2004時代の3Coms(ほとんどが4200)で、ほぼ同時に投入されました。それらはまだ保証の対象であるはずです。HPを購入すると、サービスを受けるのが多少難しくなります。主に故障した電源装置ですが、いくつかのケースでは、故障したメインボードのあるスイッチからの電源装置を使用して、故障した電源装置のあるスイッチを元に戻しました。現在、4台のスイッチのうち3台を除くすべてにUPSデバイスがありますが、2年半前に始めたときはそうではありませんでした。厳しい予算の制約(2年前にエドの財政難に直面している機関リストに載っていた)のために、代わりにNetgearやTrendNetのようなものを探す必要がありました。 また、この夏のネットワークの大きな変化は、単一のキャンパス間無線SSIDから、前述のゾーン方式への移行であったことにも言及する価値があります。私が言ったように、これは問題の原因ではないと思います。これは以前に見たことがあります。ただし、これが問題を悪化させている可能性があり、特定が非常に困難である理由の多くである可能性があります。 診断 問題のタイミングと持続的な性質を考えると、問題の原因はARPキャッシュポイズニングを実行する感染した(または悪意のある)学生のマシンであることが最初は明らかでした。ただし、ソースを分離するための繰り返しの試行は失敗しました。これらの試みには、多数のWiresharkパケットトレース、さらには建物全体を短時間オフラインにすることさえ含まれます。喫煙銃の不良ARPエントリを見つけることさえできませんでした。私の現在の最良の推測は、過負荷または障害のあるコアスイッチですが、これをテストする方法がわかりません。また、盲目的に交換するコストは高額です。 繰り返しますが、アイデアはありがたいです。 更新: コアスイッチが交換されました。4日後、すべてが順調に進んでいます...しかし、問題が解決するまで、2週間経過するまで待ちます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.