タグ付けされた質問 「nfs」

ネットワークファイルシステム(NFS)は、1984年にサンマイクロシステムによって最初に開発されたネットワークファイルシステムプロトコルで、クライアントコンピュータのユーザーがローカルストレージにアクセスするのと同じ方法でネットワーク経由でファイルにアクセスできます。NFSは、他の多くのプロトコルと同様に、Open Network Computing Remote Procedure Call(ONC RPC)システム上に構築されています。ネットワークファイルシステムは、RFCで定義されたオープンスタンダードです。

2
サイズが変更されない場合、Vagrant NFS共有は更新されたファイルを表示しません
NFS経由で/ vagrantをマウントすると、サイズが変更されない場合、ホスト上の変更されたファイルはゲストで更新されません。サイズが異なるように十分な変更を加えない限り、クイックアップデート/タイプミスはすぐには反映されません。 lookupcache = noneを設定しようとしましたが、すべてを遅くする以外は何も変更しません。 ホストとしてOSX MLを、ゲストとしてArch Linuxを使用しています。NFSはv3です(OSXのため)。

1
Linux NFSクライアント側のRPC資格情報が繰り返し更新される原因は何ですか?
使用してnfsstat -c、私は(いくつかのシステムでは、「newcred」として知られている)高い「authrefrshは」のような操作のための私のNFSクライアントPCを頼りに見ているlsとfind〜1000個のファイルを含むディレクトリに。これは、非常に低いパフォーマンス(20分以上のディレクトリ一覧)と相関関係があります。キャッシュされたNFS操作は、この動作(authrefrshまたはスローダウン)を示しません。 authrefrsh = nfsstatをチェックするたびに呼び出す: $ nfsstat -c Client rpc stats: calls retrans authrefrsh 280462 0 280462 Client nfs v3: null getattr setattr lookup access readlink 0 0% 126990 45% 0 0% 10062 3% 58592 20% 0 0% read write create mkdir symlink mknod 25030 8% 0 0% 65 0% …
10 nfs  rpc 

2
Windows NFSパフォーマンスとWindowsファイル共有の違い
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 サーバーとクライアントの両方がすべてWindowsであるNFSをセットアップした人はいますか?不思議なんだけど: 組み込みのWindowsファイル共有(CIFS / SMB)を使用する場合とパフォーマンスはどのように比較されますか? クライアントは、通常のファイル共有と同じように、NFS共有をネットワークドライブとしてマウントできますか? Windowsがこれをネイティブでサポートしていないため、推奨ツールはありますか? これにより、信頼できるファイル共有が実現しますか?
10 samba  nfs  windows 

7
NFSクライアント/サーバースタックのチューニング
CentOS 5 VMWareサーバーが、ディスクイメージを保持するNFSを介してOpenSolaris 2009.06マシンに接続しています。私の仮想マシンは遅いIOによってバインドされているようですので、接続を最適化するためにできる限りのことをしたいと思います。 本番システムでスループットを測定する最良の方法dd bs=1024k count=400はわかりませんが、show local(OpenSolaris)の書き込みが〜1.6GB / s、リモート(CentOS)の書き込みが〜50MB / sの非科学的なテストです。現在、7つのVMが接続を介して実行されているため、これらは実際に得ているものよりも低いと思います。 現在、2台のマシンは直接接続されたgigEであり、ジャンボフレームは両方のNICで有効になっています(MTU = 9000)。それ以外は、最適化は行われていません。NFSマウント/エクスポートはデフォルトを使用しています。 パフォーマンスを向上させるには、ノブをどこから始めればよいですか?
10 centos  nfs  tcpip  opensolaris  zfs 

2
NFS I / Oモニタリング
NFSマウントされたディレクトリがあり、そのI / O使用状況(MB /秒の読み取りと書き込み)を監視したいと思います。それを行うための推奨される方法は何ですか? これはNFSクライアントです。NFSサーバーにアクセスできません。私は一般的なI / Oの使用法には興味がありません(そうでなければ、vmstat / iostatを使用します)。また、複数のNFSマウントがあります。特定のマウントを1つだけ監視することに興味があります(または、etherealを使用した可能性があります)。 ありがとう!

6
vSphereデータセンター間でVMテンプレートをコピーするにはどうすればよいですか?
背景/環境アーキテクチャ: 私の現在の環境$corp_overlords$は、技術的に恵まれたホームオフィスハブ(SAN、bladecenter / bladesystem ESXiクラスター、ファイバーインターネット接続など)が、リモートサイトスポークの数に接続されているハブアンドスポークモデルで設定されています。それほどうまくいっていません。通常、単一のESXiホストサーバーが含まれ、T1経由でホームオフィスのハブに接続します。リモートサイトで発生するすべてのトラフィックは、「MPLSネットワーク」(実際には、リモートサイトをホームオフィスに接続する単なるT1)を介してホームオフィスにルーティングされます。 ホームオフィスのSAN上には、VMの展開元として作成したVMテンプレートがいくつかあります。それらは、vSphereデータストアであるNFSボリュームに保存され、vSphere内のホームオフィスデータセンターオブジェクトに接続されます。 各リモートサイトには、対応するvSphereデータセンターオブジェクトがあり、リモートサイトに物理的に配置されているESXiホストサーバー上のローカル接続ストレージに接続されているデータストアオブジェクトが含まれています。 これらのVMテンプレートはNFSボリューム上に存在するため、約40 GiB(シンプロビジョニング)を占有します。NTFS(またはLinux FS)上のファイルとして、それらは〜100 GiBを占有します。 質問: この40 GiBのシンプロビジョニングされたデータ(ファイルシステム領域の100 GiBを占める)をサイト間でコピーするにはどうすればよいですか? 私には約5日間の制約があり、「通常のネットワークトラフィック」に(特に)干渉することはできません。

3
別のNFSマウント内にマウントされたNFSマウントがランダムに消える
入れ子になったNFSマウントが時々ランダムに消えてしまうというかなり奇妙な問題があります。 fstabエントリは、次のようになります。 nfs:/home /home nfs rw,hard,intr,rsize=32768,noatime,nocto,proto=tcp 0 0 nfs:/bigdir /home/bigdir nfs rw,hard,intr,rsize=32768,noatime,nocto,proto=tcp,bg 0 0 問題は、共有がまだマウントされているとmtabが判断しても、「/ home / bigdir」フォルダが空になることがあるということです。nfsstatなど al。共有はまだマウントされていると思いますか。 機能するのは、アンマウントしてから、bigdir共有を(再)マウントすることだけです。 サーバー側はネットアップです。クライアント側はRHEL5.5、2.6.18-194カーネルです(はい、5.8がリリースされていることはわかっていますが、私が見る限り、この特定の問題に関するエラッタはありません)。 自動マウントや別のパスにマウントしてから--mount bindを使用するなど、さまざまなハックを使用できますが、根本的な問題を修正したいと思います。

2
iSCSI / NFSのパフォーマンスが非常に低い場合のトラブルシューティング戦略
3つのWindows 2008 R2ボックスにiSCSIターゲットを提供し、1つのOpenBSD 5.0ボックスにNFSを提供する新しいSynology RS3412RPxsがあります。 sshでRS3412にログインし、ddとさまざまなブロックサイズを使用して小さなファイルと6GBファイルの両方を読み書きすると、優れたディスクI / Oパフォーマンスが示されます。 iSCSI / NFSクライアントでddまたはiometerを使用すると、最大20Mbpsに到達します(これはタイプミスではありません。20Mbps)。Synologyの複数のGbit NICをより有効に活用したいと思っていました。 スイッチとNICポートの設定が自動ネゴシエートではなくギガビットに設定されていることを確認しました。ジャンボフレームを使用した場合と使用しない場合で違いはありません。pingでMTUが現在9000であることを確認しました。2つのファームウェアアップグレードが展開されています。 スイッチの問題を除外するために、iSCSIターゲットとイニシエーター間の直接リンクを試しますが、他のオプションは何ですか? 私はwireshark / tcpdumpを壊した場合、何を探しますか?

2
KerberosおよびADを使用したNFS3のマウント
Kerberosを使用してWindows(Server 2008)NFS共有からホームディレクトリを自動マウントする必要があるLinuxサーバー(Centos 5.6)を持っています。認証がオフになっている場合、共有は(nobodyユーザーとグループで)マウントされます。ただし、-o sec=krb5フラグが渡された場合はを取得しmount.nfs: permission deniedます。 rootとして、私は以前kinitチケットを取得し、klistそれが有効なチケットであることを教えてくれました。エラーをグーグルしても、それは少しキャッチオールのように見えるので、それほど多くはありませんでした。私が調べたどのログからも有用なものは見つかりませんでした。ルートアクセスはWindows共有で許可されるように設定されています。 Windowsからの共有のため、サーバーの設定を変更するためのリソースの多くは、直接には適用されません。 これを機能させるためのアイデアはありますか?

4
NFSを介してnginxで静的ファイルを提供していますか?
nginxサーバーで毎秒約7,000のリクエストを受け取っているウェブサイトがあります。このサーバーは、Apacheサーバーへの書き換えを処理するだけでなく、静的ファイルや画像などを直接提供します。静的ファイルは、約5,000のリクエストで最も大きな部分です。 アーキテクチャのアップグレードでは、これらの静的ファイルを含むディレクトリをNFS経由でエクスポートする中央ファイルサーバーの使用について考えます。これらのファイルへの書き込みアクセス権がないため、ディレクトリはnginxマシンで読み取り専用でマウントできます。私の主な懸念は: NFSはこれに対して十分高速ですか?NFSが処理できる要求の数に制限はありますか?この方法を実行するときに、「必須」のオプションはありますか? おまけ:このセットアップには、NFS以外にも他の選択肢はありますか? ありがとう!
9 nginx  nfs 

3
水平方向にスケーリングするWebサーバー間でファイルアップロードディレクトリを共有する最良の方法
私は現在、下のカラフルな図のような、ドルーパルベースのウェブアプリ用に水平方向にスケーラブルなクラスターを仕様化しようとしています。 ロードバランサーはスティッキーセッションを実装しているため、ユーザーは、作業するサーバーが割り当てられると状態を維持します。 各アプリサーバーには次のものがあります。 正面のニス ランプスタックで実行されている真ん中のdrupal 6 後ろにmemcached 2つのmysqlデータベースサーバーは共有IP上にあり、DRBDとハートビートを備えたHAクラスター内にあるため、1つが失われてもプラットフォーム全体がダウンすることはありません。 次の点について、ご意見をいただければ幸いです。 ファイルストレージを水平方向に拡張するにはどうすればよいですか? NFSを使用して各アプリサーバーに共有ファイルディレクトリをマウントすることを考えているので、一度にアップロードされたファイルをすべてのアプリサーバーで利用できます。私はNFSを考えています。それは古くからあるからです。また、MogileFSやGlusterFSの経験はありません。NFSは以前に使用したことがあるので、より慣れています。 この方法でNFSを介してディレクトリを共有するのが賢明なサーバーの数を算出するために従うべきガイドラインはありますか? ここで共有ファイルストレージにHAをどのように提供する必要がありますか? ここでの1つの問題は、NFSサーバーが単一障害点であることです。 私たちはすでにMysqlサーバーでハートビートとDRBDを使用しており、スタックに含まれるテクノロジの数をできるだけ少なくしたいのですが、ファイルに同じHA戦略を使用した場合、どのような落とし穴がありますかサーバーも? 代替アプローチ これは、内部向けのサイトであり、内部のイニシアチブがオンになっているときに、限られた数のユーザーが時々非常に集中的に短期間使用する場合があります。したがって、これは一部のスタートアップのように無限に拡張する必要はありません。 とすれば 予想できるトラフィックには上限があります HAをファイルサーバーに追加し、このように水平方向にスケーリングするようにセットアップを設計すると、かなり複雑になります。 また、2台のWebサーバーを強化して、2台のWebサーバー間のピーク負荷を処理し、cronジョブで2台のサーバーにユニゾンまたはrsyncを設定することを検討しています。 それらのファイルはまだ同期しています(スティッキーセッションは、ファイルをアップロードしたのと同じサーバー上のユーザーを維持します) 1つを失うと、サイトはまだ稼働しています。 これは、NFS / DRBD HAの複雑な頭痛を回避するための可能な方法のように聞こえますか? おかげで、 C
9 nfs  lamp  scaling 

4
フォールトトレラントNFS?
おそらくFAQですが、しばらく検索しても役に立たないものがあります。 すべてのエラー(サーバーのCPU、ハードディスク、HDコントローラ、ネットワークアダプタ、ネットワークケーブル、電源装置など)がすぐに介入する必要なしにマスクされるようにNFSをセットアップできますか? 問題の一部に対する回答しかありません:RAID、冗長電源、冗長ネットワークアダプター クライアントが透過的にフェイルオーバーするように、NFSサーバーのCPU障害にどのように対処しますか?

5
「使用可能なロックがない」とはどういう意味ですか?
SVNサーバーにコミットしようとしています。サーバーでは、subversionリポジトリはNFSマウントされています。コミットを実行すると、次のエラーメッセージが表示されます。 svn: Can't get exclusive lock on file '/svn/repo/db/transactions/7802-2.txn/rev-lock': No locks available これは以前は機能し、ソフトウェアのアップグレードや変更は何もありませんでした。ただし、NFSサーバーは以前にクラッシュしたため、「破損」している可能性があります(ここでも該当する場合)。
9 linux  nfs  files 

6
iSCSIおよびNFS over 1GBイーサネットの「適切な」速度とは何ですか?
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 2つのZFSファイルシステムを共有するOpenSolarisボックスがあります。1つは、VMwareサーバーを実行しているCentOSボックスへのNFS接続です(ディスクイメージはZFSに保存されます)。もう1つは、Windows 2008サーバーへのiSCSI接続で、ZFSの上にNTFSフォーマットが設定されています。どちらの接続もgig-Eを介して直接行われます(スイッチなし)。 ボックスを監視するためにmuninを実行していますが、どのような数値を期待するべきかわかりません。誰かが私と比較するためのいくつかのベースライン番号を与えたり、チューニングを開始する場所について何か提案をすることはできますか? ここに私が見ているNFS統計があります、solarisボックスでmuninを修正したらiSCSIを投稿します:P

4
NFSがマウントされる前に実行されるCrontab
Cronjob @rebootを実行すると、nfs共有上のファイルが存在しないことが返されます。 例 @reboot python /abs/path/to/script.py 起動時のcrontabからのメールに「多かれ少なかれ」と表示される /usr/bin/python can't open file "/abs/path/to/script.py": [Error No. 2] No such file or folder. スクリプトはコマンドラインから問題なく実行できます。 理論的には、マウントが実行される前にcronjobが実行されています。 質問。 この理論は正しいですか? ドライブがマウントされるまでジョブを強制的に停止させる方法はありますか?....コマンドにスリープ60を入れるだけではありません。;)私は既にそれを試しましたが、それはヒットしてミスであり、スクリプトが時間の100%をすばやく実行する必要があります。
9 linux  cron  nfs 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.