タグ付けされた質問 「nfs」

Sun Microsystemsによって作成されたnfs(ネットワークファイルシステム)。NFSを使用すると、クライアントシステムはローカルのようにネットワークファイルにアクセスできます。

2
UIDが一致しないシステム間でNFSv4 UIDマッピングを行うにはどうすればよいですか?
私は3つのUbuntuシステムを備えたラボで作業しており、NFSを介して一部のファイルシステムをクロスマウントしたいと考えています。ただし、システムには同じユーザー名がいくつかありますが、3つのシステムが別々にセットアップされているため、UIDとGIDは一致しません。NFSファイルシステムをあるシステムから別のシステムにマウントすると、所有権が正しく表示されません。たとえば、UID 1000がserver1のaliceであり、同じUID 1000がserver2のbobである場合、server1がserver2のエクスポートされたファイルシステムをマウントすると、bobのファイルはaliceが所有しているように見えます。 それで、NFS(v4)がサーバー間で関連付けられたユーザー名を介してUIDを変換する方法はありますか?これをググって、私はKerberos、LDAP、またはNISへの参照をたくさん見ました。これは、そのような単純なタスクでは大げさすぎるように思われ、これらのシステムは集中管理されていないため不可能かもしれません。このリンクは、私が求めることは不可能であることを示しているようです。それが正しいか? 編集:私は/etc/idmapd.confインターネットで考えたり見つけたりできるすべての構成を試しましたが、idmapdプロセスが明確に実行されている間、これまでのところ、NFSがそれを使用しようとする証拠をまったく見ていません。 NFSマウントで報告されるユーザーIDに影響を与えることはありません。
11 linux  users  nfs 

3
NFSリモートがディレクトリをエクスポートしているかどうかを確認するにはどうすればよいですか?
私のスクリプトでは、ステータスのいくつかのレイヤーがあります。 リモートが利用可能です(ping) リモートNFSサービスがアクティブです リモートNFSが特定のディレクトリをエクスポートしています リモートNFSがマウントされている(マウント) (2)と(3)についてrcpinfoは、最善の策だと思います。(2)については、サブシェルを開始せずにクエリをNFSサービスに絞り込む方法を理解できません(これはこのアプリケーションでは受け入れられません)。(3)の場合、この情報がリモートで利用できるかどうかはわかりません(sshもちろん、ログインする必要はありません)。 私はRHEL 6に取り組んでおり、標準ディストリビューションに含まれていないプログラムにアクセスできません。
11 rhel  directory  nfs  remote 


4
再起動せずにNFSクライアントを再初期化する
私は自分のサーバーで作業しており、そこからNFSを使用して1つのディレクトリをエクスポートします。もちろん、1週間ほどサーバーを再起動umountすると、ワークステーションのエクスポートファイルシステム(/etc/fstab起動時にマウントされる)を何度も忘れてしまいました。その間に私はumount事実の後と再マウントすることができました(私は使用していませんautofs): umount -fl /data0 mount /data0 しかし、これはもはや機能しません。 私がすることはできません別のディレクトリ(ハングマウント)上のサーバからエクスポートされたディレクトリをマウントしますが、私はすることができ、NFSは私のワークステーション上で実行中の仮想マシン上でそのエクスポートされたディレクトリをマウントします。 私が試したのはrmmod、nfsとnfsv3モジュールを削除()することです(これは機能しません:)Resource temporarily unavailable。lsofハングアップします。mount経由でマウントされたものは表示されませんnfs。これはおそらく 'umount -l'を複数回使用した結果ですが、最初の2回は問題なく機能しました。 私はその間にサーバーを再起動しましたが、それなしではマウントできず、違いはありません。私も使用しましたservice nfs-kernel-server restart。クライアントワークステーションを再起動すると、すべてが正常に戻ると思います。 これから回復し、再起動せずにワークステーションでNFSクライアント側を再初期化する方法はありますか? 再起動せずにこれを修正できない場合、使用を開始してもこれは再発しませんautofsか? lsof -b 最後の行でハングアップします: lsof: avoiding readlink(/run/user/1001/gvfs): -b was specified. lsof: avoiding stat(/run/user/1001/gvfs): -b was specified. lsof: WARNING: can't stat() fuse.gvfsd-fuse file system /run/user/1001/gvfs Output information may be incomplete. その前の行にははありません/data0。 のエントリ/etc/fstab: 192.168.0.2:/data0 /data0 …
10 nfs 

4
autofsマウントが非アクティブになっても切断されない
私が持っているのautofsユーザ/ホームディレクトリのための中央NFSサーバに接続している複数のLinuxサーバにインストールします。ログイン時にディレクトリをマウントするときにうまく機能しますが、マウントがタイムアウトすることはありません。/ etc / sysconfig / autofsを確認しましたが、デフォルトは実際に300に設定されているため、これらは5分後にタイムアウトになるはずです。 autofsを再起動すると、すべてのディレクトリがアンマウントされるため、それが可能であることはわかっています。 ディレクトリでランダムにlsofを使用しようとしましたが、開いているファイルが表示されません。 また、アクティブではないことがわかっているランダムなディレクトリをマウントしましたが、これらは自分自身をアンマウントすることはありません。これらのボックスの一部には、一度ログインしたことがある10人以上のユーザーがいて、マウントがドロップすることはありません。 私はそこから見つけようとしているのですが、その理由を見つけるためのより良い方法があります。ログに何も表示されません。 任意の提案をいただければ幸いです。ありがとう! 更新 autofsのデバッグをオンにしましたが、異常なことは何も明らかになりません。これらのログは、/ home / user1が最初にマウントされてから7分後、非アクティブ状態が6分間続いた後に生成されました。5分のデフォルトによると、これはマウント解除されているはずです。アンマウントする試みが行われたことを示すログが表示されるのを見たことはありません。 Jan 11 12:52:00 linux automount[26505]: st_expire: state 1 path /home Jan 11 12:52:00 linux automount[26505]: expire_proc: exp_proc = 3055176592 path /home Jan 11 12:52:00 linux automount[26505]: expire_proc_indirect: expire /home/user1 Jan 11 12:52:00 linux automount[26505]: …
10 rhel  mount  nfs  autofs 

3
UNIX電源ネットワークのセットアップ
LAN上に複数のコンピューターをセットアップし、すべて1つのUNIXサーバーに接続したいと考えています。 主な目的は、ユーザーアカウントはサーバー上にのみ存在することです。これにより、任意のユーザーが任意のコンピューターを介して通常のインターフェイスにアクセスできるようになります。 これにはどのような方法がありますか?これらの方法の長所と短所は何ですか? 傍注:単純化された方法を探しています。個々の端末で実行する必要のある最小限の作業が必要です。ユーザーがゲームをプレイしてリソースを大量に消費することができれば、それはボーナスになります。

1
NFSマウントでinotifyイベントが異なるのはなぜですか?
しばらく前に、ファイルがNFSマウントに保存されるときとローカルファイルシステムに保存されるときでは、inotifyによって報告されるイベントが異なることに気付きました。 基盤となるVFSは、ファイル操作の統一されたビューを提供するべきではありませんか? 以下は、Debian 7.1(Linux 3.2)でファイルを保存するVIMのトレースです。 NFSマウントの場合: wd=1 mask = 32 (IN_OPEN) wd=1 mask = 16 (IN_CLOSE_NOWRITE) wd=1 mask = 2048 (IN_MOVE_SELF) wd=1 mask = 4 (IN_ATTRIB) wd=1 mask = 1024 (IN_DELETE_SELF) wd=1 mask = 32768 ) ローカルファイルシステム wd=1 mask = 32 (IN_OPEN) wd=1 mask = 16 (IN_CLOSE_NOWRITE) wd=1 mask = …
10 linux  nfs  inotify 

2
NFSマウントされたディレクトリのユーザー権限
Windowsにoracle linux 6.7、NFSサーバーがあり、Linuxに共有フォルダーをマウントしようとしています。 Windows NFSサーバーには共有マウントがあります。 192.168.1.10:/OracleBK 私のoracle linuxサーバーで、フォルダー/ orabackupを作成しました。oinstallグループのoracleユーザーがこのフォルダーの所有者です。 mkdir /orabackup chown -R oracle:oinstall /orabackup chmod -R 777 /orabackup mount -t nfs -o rw 192.168.1.10:/OracleBK /orabackup / etc / fstabに対応する行は 192.168.1.10:/OracleBK /orabackup nfs defaults 0 0 使用するフォルダをマウントするコマンドは次のとおりです。 mount /orabackup これで、「orabackup」フォルダがマウントされます。 ただし、oracleユーザーは読み取りおよび書き込みができないため、このディレクトリに対する読み取りおよび書き込み権限が必要です。rootユーザーは読み取りと書き込みができます。 oracleユーザーに完全な権限を与えるにはどうすればよいですか?
10 nfs 


2
NFS許可が拒否されました
NFSを構成し、クライアントのNFS共有ディレクトリにファイルを作成すると、次のメッセージが表示されます。 私の構成: 構成NFSサーバー http://www.server-world.info/en/note?os=CentOS_6&p=nfs&f=1 構成NFSクライアント http://www.server-world.info/en/note?os=CentOS_6&p=nfs&f=2 問題はどこだ?

3
遅いNFS、nfsstat -c:authrefrsh(別名newcreds?)フィールドとは何ですか?
(net-fs / nfs-utils-1.2.3-r1、2.6.38.5-zen + Gentoo) これをグーグルすることは完全な行き止まりのようです。man nfsstatはこの件については何も言わない。私が得ることができる最も近いものは、おそらく以前は「newcreds」であったものについて知ることでした。 newcreds認証情報を更新する必要があった回数。 私の問題は、私がいることであると考え、私はOpenVPNのオーバー基準以下NFSのパフォーマンスを見ていると私はすぐに、それはすべてはnfsstat Googleの検索結果よりも大幅に異なっている見ることができる唯一のことは、私の「呼び出し」フィールドは正確に「authrefrsh」に等しいので、非常に高いことです。すべての検索結果出力には、常にauthrefrshが0または非常に小さい数でした。他のいくつかの側面のデバッグに移る前に、これが何を意味するかを知ることができます。 監視された操作は、NFS共有ポーテージ上にパッケージを出現させています。動作中、emergeは大きなツリーをトラバースしますが、以前の経験では、私が見ているパフォーマンスは異常です。 $ watch -n 1 nfsstat -c Every 1,0s: nfsstat -c Sat May 21 23:04:55 2011 Client rpc stats: calls retrans authrefrsh 308565 2211 308565 Client nfs v3: null getattr setattr lookup access readlink 0 0% 172372 55% 17 0% …
10 gentoo  nfs  openvpn 

2
2つのLinuxサーバー間で数百万のファイルを同期する
ローカルディスクからNFSを介してネットワーククライアントに約700万のファイル(主に画像)を含むディレクトリをエクスポートするサーバーがあります。 HAのために2つ目を追加する必要があり、2つ目間のデルタができるだけ少なくなるように、1つ目と同期させる必要があります。 調査では、lsyncdまたは他のinotifyベースのソリューションを使用することを提案していますが、inotifyウォッチを作成するファイルの数を考えると、永遠にかかります。rsyncについても同様です。 他の可能な解決策があるように思わDRDB、またはクラスタファイルシステムなどのCEPHやglusterfsが、私はそれらの経験がない、もう1つは、より適切であるかを知ると、その多くのファイルとよく対応し、まだまともなパフォーマンスを提供していません。 アクティビティはほとんど読み取られ、書き込みはほとんど発生しないことに注意してください。

2
検索でNFSディレクトリを除外する方法は?
ユーザーまたはグループのないファイルを検索する必要があります。 find / -nouser -o -nogroup これは大丈夫だと思います。しかし、NFS共有を検索したくありません。findコマンドでNFS共有を除外するにはどうすればよいですか?
9 find  nfs 

3
Dockerと共有されるホストボリュームへのNFSディレクトリのマウント
次のDockerコンテナを検討してください。 docker run --rm -it -v /tmp:/mnt/tmp alpine sh これにより、ホストディレクトリ/ tmpが高山コンテナ内の/ mnt / tmpにマウントされます。 次に、ホストシステムでNFSボリュームを/ tmpディレクトリにマウントします。 mkdir /tmp/nfs mount -t nfs4 192.168.1.100:/data /tmp/nfs マウントはホストシステムで機能し、次のように表示されます。 # ls /tmp/nfs file1 file2 file3 # しかし、Dockerコンテナでは、空のディレクトリが表示されます。 # ls /mnt/tmp/nfs # Dockerコンテナーで直接マウントすることで、これを回避できることを知っています。しかし、マウントがホストコンテナーでは機能するが、Dockerコンテナーでは機能しない理由を知りたいのですが、本当に興味がありますか?
8 nfs  docker 

1
Centos 7でNFSを起動できません:メソッド呼び出しの発行に失敗しました:そのようなファイルまたはディレクトリはありません
CentOS 7でNFSサーバーを起動できません。 ダウンロードしたパッケージ: yum -y install nfs-utils yum -y install nfs-utils-lib サービスの有効化/開始 systemctl enable/start rpcbind systemctl enable/start nfs-server systemctl enable/start nfs-lock systemctl enable/start nfs-idmap につながる: systemctl enable nfs-lock Failed to issue method call: No such file or directory systemctl enable nfs-idmap Failed to issue method call: No such file or …
8 centos  nfs 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.