タグ付けされた質問 「nfs」

ネットワークファイルシステム(NFS)は、1984年にサンマイクロシステムによって最初に開発されたネットワークファイルシステムプロトコルで、クライアントコンピュータのユーザーがローカルストレージにアクセスするのと同じ方法でネットワーク経由でファイルにアクセスできます。NFSは、他の多くのプロトコルと同様に、Open Network Computing Remote Procedure Call(ONC RPC)システム上に構築されています。ネットワークファイルシステムは、RFCで定義されたオープンスタンダードです。

4
最小遅延のためのNFSの調整
たとえば、開発者がワークスペースをNFSにマウントしてEclipse / Visual Studioでうまく動作させるために、NFSエクスポートの低遅延を実現するにはどうすればよいですか?

2
Linuxでクライアント側のNFSフェールオーバーを行う方法
NFSストレージにアクセスする必要があるCentOS 6.3クライアントがあります。クラスタ化されたファイルシステムでSANに保存された同じコンテンツを提供する2つのNFSサーバーがあります。必要に応じて、バックアップNFSサーバーにフェールオーバーするようにCentOSを設定するにはどうすればよいですか?私がグーグルをするとき、私はLinuxがこれをサポートしていないことを読み続けますが、クラスター化されたLinux NFSサーバーファームをセットアップする方法に関する情報がたくさんあるので、それは奇妙です...

1
DebianでNFS読み取りキャッシュはどのように機能しますか?
NFSを使用して多くの小さなファイルを提供する予定です。これらは非常に頻繁に読み取られるため、クライアント側のキャッシュが重要です。NFSはこれを処理しますか?何らかの方法でクライアント側のキャッシュを増やす方法はありますか? ...または別のソリューションを検討する必要がありますか?定期的にrsyncまたはunisonを使用して同期することは、ファイルがクライアント側で時々変更されるため、オプションではありません。

6
mount.nfs:マウント中にサーバーによって拒否されたアクセス
私のUbuntuシステムでは、/ etc / fstabに次の行があります。 myserver:/home/me /mnt/me nfs rsize=8192,wsize=8192,timeo=14,intr 私がする時 sudo mount -a 私は得る: mount.nfs: access denied by server while mounting myserver:/home/me この問題を診断するにはどうすればよいですか?nfsサーバーもUbuntuです。 追加の詳細:同じネットワーク上の他のUbuntuクライアントからこのnfs共有を問題なくマウントできます。ただし、問題のあるクライアントは、WindowsシステムのVirtualBox内で実行されているという点で異なります。問題のあるクライアントから「myserver」に問題なくpingを実行できます。 編集: 「myserver」上の/ etc / exports: /home/me *(rw,all_squash,async,no_subtree_check,anonuid=1000,anongid=1000) 「myserver」上の/etc/hosts.allowと/etc/hosts.denyは両方ともコメントです。また、同じネットワーク上の他のクライアントからうまく接続できることを覚えておいてください。

1
NFSv4ユーザーマッピング
この質問はすでに何度も尋ねられたようですが、他の答えはどういうわけか私には当てはまりませんでした。 基本的に私は新しいNFSv4サーバーをセットアップしただけで、サーバーとクライアント間でUIDとGIDが一致しないという典型的な問題に直面しています。ただし、私のシナリオでは、/ etc / passwdと/ etc / groupを同期することはできません。両方のマシンで同じユーザーがいることに注意してください(この質問とは異なります)。 したがって、私はidmapを調査していました:一部のソースによると、NFSv4はユーザー名を送信するようであり(UID / GIDを送信するNFSv3の動作とは対照的)、idmapの役割はこれらのユーザー名をサーバーのUID / GIDに変換することです。 しかし、これは私の場合にはうまくいかないようです(以下のセットアップの詳細)。これは非常に標準的(かなり多くの場合、リポジトリからNFSのみをインストールする)と考えています。 何か不足していますか?LDAPまたはKerberosを設定せずにこれを機能させる方法はありますか? サーバーのセットアップ サーバーがUbuntu 16.04インストールされ、2人のユーザーがいます。 user1@server:~$ id user1 uid=1000(user1) gid=1000(user1) groups=1000(user1),27(sudo) user1@server:~$ id user2 uid=1001(user2) gid=1001(user2) groups=1001(user2) NFSがリポジトリからインストールされ、テストフォルダーをエクスポートするように構成されました。 user1@server:~$ sudo apt-get install nfs-kernel-server user1@server:~$ sudo cat /proc/fs/nfsd/versions +2 +3 +4 +4.1 +4.2 user1@server:~$ ls -ld /srv/nfs/test/ drwxrwxrwx …
12 ubuntu  nfs 

2
mount.nfs:正しくないマウントオプションが指定されました
CentOS 7.2サーバーにNFSボリュームをマウントしようとしています。 NFS共有ポイントをマウントしようとすると、次の応答が返されます。 [root@web1:~] #mount -t nfs nfs1.example.com:/var/nfs/home /home mount.nfs: an incorrect mount option was specified チェックしてnfs-utils-1.3.0-0.21.el7.x86_64、両方のマシンにインストールしました。NFSクライアントとNFSサーバーのOSはどちらもCentos 7.2です これをトラブルシューティングするために、NFSサーバーの/ etc / exportsファイルのリストを次のように減らしました。 /var/nfs/home web1.example.com(rw,sync,no_root_squash,no_all_squash) 私が行う場合showmount、私は上のNFS共有をマウントしようとしているサーバーから、これは私が見たものです。 [root@web1:~] #showmount -e nfs1.example.com Export list for nfs1.example.com: /var/nfs/home web1.example.com 私が行う場合、mount -vこれは私が得るものです: [root@web1:~] #mount -v -t nfs nfs1.example.com:/var/nfs/home /home mount.nfs: timeout set for Fri Jan …
12 nfs 

8
小さなファイルのNFS転送パフォーマンスが遅い
RAID 1 + 0を使用してHP ML370 G5、SmartアレイP400、SASディスクを組み合わせてOpenfiler 2.3を使用しています。 OpenfilerのWebベースの構成を使用してext3パーティションからNFS共有をセットアップし、別のホストから共有をマウントすることに成功しました。両方のホストは、専用のギガビットリンクを使用して接続されます。 を使用した簡単なベンチマークdd: $ dd if=/dev/zero of=outfile bs=1000 count=2000000 2000000+0 records in 2000000+0 records out 2000000000 bytes (2.0 GB) copied, 34.4737 s, 58.0 MB/s 中程度の転送速度(58.0 MB /秒)を達成できると思います。 しかし、合計サイズが300 MB未満の小さなファイル(.phpおよび.jpgファイルあたり約1〜4 kB)を多く含むディレクトリをコピーすると、cpプロセスは約10分で終了します。 上記のような小さなファイル転送にはNFSは適していませんか?または、調整が必要なパラメータはありますか?
12 performance  nfs 

6
CentOS 6 + LDAP + NFS。ファイルの所有権は「誰も」に固執しています
CentOS 6でLDAP認証とNFSエクスポートされたホームディレクトリを取得しようとしており、数日間動作しています。LDAPのユーザー名とパスワードを使用してクライアントマシンにログインできるようになりました。クライアントでは、/ homeおよび/ optがNFSを介してfstabにマウントされます。ただし、/ optと/ homeの両方のすべてのファイルはnobody:nobody、クライアントの(uid:99、gid:99)によって所有されます。 しかし、私のuidとgidは適切に設定されているようです: -bash-4.1$ id uid=3000(myusername) gid=3000(employees) groups=3000(employees) 他に何を確認できますか?クライアント上のいくつかの設定ファイルは次のとおりです。 /etc/nsswitch.conf passwd: files sss shadow: files sss group: files sss hosts: files dns bootparams: nisplus [NOTFOUND=return] files ethers: files netmasks: files networks: files protocols: files rpc: files services: files netgroup: files sss publickey: nisplus automount: files ldap …
11 centos  nfs  openldap  sssd 

1
NFS v3とv4
NFS v4がNFS v3よりもはるかに高速になる理由と、v3に調整可能なパラメーターがあるかどうかは疑問です。 ファイルシステムをマウントします sudo mount -o 'rw,bg,hard,nointr,rsize=1048576,wsize=1048576,vers=4' toto:/test /test そして実行する dd if=/test/file of=/dev/null bs=1024k 私は読むことができます200〜400メガバイト/秒 が、ときに私の変更バージョンにvers=3再マウント、と私は取得のみddを再実行して90メガバイト/秒。読み取り中のファイルは、NFSサーバー上のメモリ内ファイルです。接続の両側はSolarisであり、10GbE NICを備えています。すべてのテスト間で再マウントすることにより、クライアント側のキャッシュを回避します。私が使用dtraceNFS経由で提供されているどれだけ速くデータを測定するために、サーバー上で参照すること。v3とv4の両方について、次のように変更しました。 nfs4_bsize nfs3_bsize デフォルトの32Kから1M(v4では32Kで最大150MB / s)を調整しようとしました nfs3_max_threads clnt_max_conns nfs3_async_clusters v3のパフォーマンスを改善しますが、行きません。 v3で4つのパラレルを実行するとdd、スループットが90MB / sから70-80MBに低下するため、問題は共有リソースであると思われます。資源。 ウィンドウサイズを取得するdtraceコード: #!/usr/sbin/dtrace -s #pragma D option quiet #pragma D option defaultargs inline string ADDR=$$1; dtrace:::BEGIN { TITLE = 10; title …
11 solaris  solaris-10  nfs4  nfs 

2
ZFS-重複排除されたzvolまたはデータセットを破壊すると、サーバーが停止します。回復する方法
12個のミッドライン(7200 RPM)SASドライブを搭載したHP ProLiant DL180 G6で実行されているセカンダリストレージサーバーでNexentastorを使用しています。システムにはE5620 CPUと8GB RAMがあります。ZILまたはL2ARCデバイスはありません。 先週、750 GBのスパースzvolを作成し、重複除去と圧縮を有効にしてiSCSI経由でVMWare ESXホストと共有しました。次に、Windows 2008ファイルサーバーイメージを作成し、約300 GBのユーザーデータをVMにコピーしました。システムに満足したら、仮想マシンを同じプールのNFSストアに移動しました。 NFSデータストア上のVMで起動して実行したら、元の750GB zvolを削除することにしました。そうすると、システムが停止します。Nexenta WebインターフェイスとNMCへのアクセスが停止しました。最終的には生のシェルに到達することができました。ほとんどのOS操作は問題ありませんでしたが、システムはzfs destroy -r vol1/filesystemコマンドを停止していました。醜い。次の2つのOpenSolaris bugzillaエントリを見つけましたが、今度は、マシンが未知の期間ブリックされることを理解しています。14時間が経過しているため、サーバーへのアクセスを回復できるようにする計画が必要です。 http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6924390 そして http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=593704962bcbe0743d82aa339988?bug_id=6924824 将来的には、おそらくbuzillaの回避策の1つで与えられたアドバイスに従うでしょう。 Workaround Do not use dedupe, and do not attempt to destroy zvols that had dedupe enabled. 更新:システムの電源をオフにする必要がありました。再起動すると、システムはで停止しImporting zfs filesystemsます。それは今から2時間ずっとそうです。

2
Linux NFSはマスクを作成し、同等のユーザーを強制します
2つのLinuxサーバーがあります。 ファイルサーバー Debian 5.0.3(2.6.26-2-686) Sambaバージョン3.4.2 apache Ubuntu 10.04 LTS(2.6.32-23-generic) Apache 2.2.14 Windows PCからファイルにアクセスできるように、ファイルサーバーに多数のSamba共有を持っています。また/data/www-data、Apacheサーバーにエクスポートし、そこでマウントし/var/wwwます。 NFSマウントでファイルを作成するときを除いて、セットアップは大丈夫です。Apacheで読み取れないファイル、またはシステム上の他のユーザーが変更できないファイルになります。 サンバでは、私が指定することができforce user、force group、create maskそしてdirectory mask、すべてのファイルが私のApache Webサーバに適したアクセス権で作成されていることを、この保証します。NFSでこれを行う方法が見つかりません。NFSで許可と所有権を強制する方法はありますか?明らかな何かが欠けていますか? 私はLinuxでかなりの時間を費やし、Windowsから離乳しましたが、Linuxの許可を把握する必要はまだありません。代替案。
11 linux  permissions  nfs 

5
VMwareディスクイメージを保存するNFSに最適なファイルシステムの選択
現在、複数のVMware ESXiサーバーのストレージとしてiSCSI SANを使用しています。追加の仮想マシン用にLinuxサーバーでNFSターゲットを使用することを調査しています。また、別のオペレーティングシステム(OpenSolarisなど)を使用することで大きなメリットが得られる場合は、そのアイデアを受け入れています。 非常に大きな連続ファイル(VMwareのディスクイメージなど)を好むLinuxベースのファイルシステムは何ですか?あるいは、この種のワークロード用にOpenSolarisでZFSをどのように見つけましたか? (この質問はもともとSuperUserで尋ねられたものです。方法を知っていれば、ここで回答を自由に移行してください)。

9
優先ローカリティを持つ地理的に分散したファイルシステム
WANを介していくつかのサイトに標準ファイルサーバーを配布する必要があるアプリケーションを構築しています。基本的に、各サイトはさまざまなサイズのその他のファイル(100 MBの範囲内で最も小さいもの)を大量に書き込む必要があり、衝突が問題にならないようにアプリケーションが書き込まれます。次の条件を満たすシステムをセットアップしたいと思います。 各サイトは、共有の「名前空間」にファイルを保存できます。つまり、すべてのファイルが同じファイルシステムに表示されます。 各サイトは、必要な場合を除き、WAN経由でデータを送信しません。つまり、WANの両側にローカルストレージがあり、同じ論理ファイルシステムに「マージ」されます。 Linux&Free($$$)はプラスです 基本的に、中央NFS共有のようなものはほとんどの要件を満たしますが、ローカルに書き込まれたデータをローカルに保持することはできません。WANのリモート側からのすべてのデータは、常にローカルにコピーされます。 Lustreを調べて、いくつかの成功したテストを実行しましたが、分散ストレージ全体にファイルをかなり均一に分散しているようです。ドキュメントを掘り下げましたが、リモートストレージよりもローカルストレージを自動的に「優先」するものは見つかりませんでした。レイテンシーが最小のストレージでも問題はありません。これはほとんどの場合機能し、このアプリケーションの要件を満たします。 以下に尋ねられるいくつかの質問に対するいくつかの回答: サーバーノード:開始する2または3。各サーバーには、多数の同時読み取り/書き込みクライアントが接続されます。 WANトポロジはフルメッシュで信頼性があります。(大企業、コストは赤字ほど制限されていません) クライアントフェールオーバー:実際には、クライアントのフェールオーバーについて考えていませんでした(主に、現在のアプリケーションでは1つのサイトでこれを行っていないためです)。実務上の答えは、地理的に分散した各サイトのサーバーは、それらがサービスを提供するクライアントの単一障害点であると予想されるということだと思いました。ただし、ここで何か特定のことを考えているのであれば、それは議論と非常に密接な関係があると思います。 Roll-my-own:rsync / unisonについて考えてきましたが、この作業の「動的」部分をシームレスに行うには、かなり高度なロジックが必要になります。つまり、ファイルはローカルにあるように見えますが、オンデマンドでのみ取得されます。 MS-DFS:それは確かに私が調べなければならないもののようです。私の主な問題は、接続するクライアントの多くがNFSクライアントであるため、WindowsでのNFSサーバーの構成/信頼性/パフォーマンスが不確かになる可能性があることです。

3
NFSキャッシュ:サーバーで変更されたときにファイルの内容がクライアントで更新されない
これが私のセットアップです。1つのNFSサーバーマシン(v4)、いくつかのNFSクライアントマシン。 クライアントマシンがNFSマウントにファイルを書き込むと、他のクライアントはすぐに新しいコンテンツを表示します。問題ありません。 しかし、サーバーマシンがファイルのコンテンツを変更すると、クライアントからlsディレクトリを変更するまで、この新しいコンテンツはクライアントに表示されません。 私はこの矛盾に完全に困惑しています...どんな助けでも大歓迎です! 情報: クライアントとサーバーの両方でのnfs 1.2.3-r1 acregmin、acregmax、acdirmin、acdirmax、lookupcache:デフォルト値
11 nfs 

5
インターネット経由でファイルシステムをマウントする
ある顧客のために、仮想サーバー上で実行するWebアプリケーションを構築しました。これには、ファイルをアップロードするための機能が含まれていますが、オフィスのサーバーにそれらのファイルを保存したいと考えています。 これを行う最も簡単な方法は、インターネット経由でファイルシステムを仮想サーバーに直接マウントすることです。私は内部ネットワークを介してNFSをマウントした経験がありますが、このシナリオで機能するかどうかはわかりません。 何かご意見は?私はいつでも新しいソフトウェアを作成してファイルを転送できますが、これは簡単な修正です。 注:オフィスのサーバーは、Windows Hyper-V環境の仮想サーバーで実行されているUbuntu 12サーバーです。WebアプリのVPSはUbuntu 11.04です。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.