タグ付けされた質問 「nfs」

ネットワークファイルシステム(NFS)は、1984年にサンマイクロシステムによって最初に開発されたネットワークファイルシステムプロトコルで、クライアントコンピュータのユーザーがローカルストレージにアクセスするのと同じ方法でネットワーク経由でファイルにアクセスできます。NFSは、他の多くのプロトコルと同様に、Open Network Computing Remote Procedure Call(ONC RPC)システム上に構築されています。ネットワークファイルシステムは、RFCで定義されたオープンスタンダードです。

1
マウントポイント(nfs-server)に書き込めず、「Permission denied」を取得
NFS2つのRHEL7ノード間で構成しようとしています。 最初のノード: [root@ip-10-164-175-246 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-164-175-246 ~]# rpm -q nfs-utils nfs-utils-1.3.0-0.el7.x86_64 [root@ip-10-164-175-246 ~]# cat /etc/exports /var/www/html/ ip-10-184-161-46.ec2.internal(rw) [root@ip-10-164-175-246 ~]# 2番目のノード: [root@ip-10-184-161-46 ~]# mount ip-10-164-175-246.ec2.internal:/var/www/html/ /mnt/ [root@ip-10-184-161-46 ~]# touch /mnt/$$ touch: cannot touch ‘/mnt/3326’: Permission denied [root@ip-10-184-161-46 ~]# /mnt/NFSで何も書き込めないのはなぜですか?
21 nfs 

4
Systemd:別のユニットが本当に起動した後にユニットを起動します
私の特定のケースではremote-fs、すべてがglusterfs完全に起動した後にユニットを起動します。 私のsystemdファイル: glusterfs ターゲット: node04:/usr/lib/systemd/system # cat glusterfsd.service [Unit] Description=GlusterFS brick processes (stopping only) After=network.target glusterd.service [Service] Type=oneshot ExecStart=/bin/true RemainAfterExit=yes ExecStop=/bin/sh -c "/bin/killall --wait glusterfsd || /bin/true" ExecReload=/bin/sh -c "/bin/killall -HUP glusterfsd || /bin/true" [Install] WantedBy=multi-user.target remote-fs ターゲット: node04:/usr/lib/systemd/system # cat remote-fs.target [Unit] Description=Remote File Systems Documentation=man:systemd.special(7) Requires=glusterfsd.service After=glusterfsd.service remote-fs-pre.target …
20 nfs  glusterfs  systemd 

3
NFSの書き込みパフォーマンスが低い
2つのマシンを10Gbitイーサネットで接続しています。それらの1つをNFSサーバーとし、もう1つをNFsクライアントとします。 TCPを使用したネットワーク速度のテストiperfでは、双方向で〜9.8 Gbit / sのスループットが示されるため、ネットワークは問題ありません。 NFSサーバーのディスクパフォ​​ーマンスのテスト: dd if=/dev/zero of=/mnt/test/rnd2 count=1000000 結果は約150 MBytes / sであるため、ディスクは書き込みに問題なく動作します。 サーバー/etc/exportsは: /mnt/test 192.168.1.0/24(rw,no_root_squash,insecure,sync,no_subtree_check) クライアントは/mnt/test、次のオプションを使用してこの共有をローカルにマウントします。 node02:~ # mount | grep nfs 192.168.1.101:/mnt/test on /mnt/test type nfs4 (rw,relatime,sync,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.102,local_lock=none,addr=192.168.1.101) NFS共有からクライアントマシンに大きなファイル(〜5Gb)をダウンロードしようとすると、〜130-140 MBytes / sのパフォーマンスが得られます。これはサーバーのローカルディスクのパフォーマンスに近いため、満足です。 しかし、NFS共有に大きなファイルをアップロードしようとすると、アップロードは〜1.5 Mbytes / sで始まり、ゆっくりと最大18-20 Mbytes / sに増加し、増加しなくなります。アップロードが実際に開始される前に、共有が数分間「ハング」する場合があります。つまり、ホスト間のトラフィックがゼロに近くなりls /mnt/test、実行すると1〜2分以内に戻りません。その後、lsコマンドが返され、最初の1.5Mbit / sの速度でアップロードが開始されます。 アップロード速度が最大(18-20 Mbytes / s)に達すると、実行するiptraf-ngとネットワークインターフェースで〜190 Mbit / …

2
マウントされたNFS共有でのファイルアクセスの速度と遅延を測定およびベンチマークします
いくつかのNFS共有をマウントするLinux Centosシステムがありますが、その共有からファイルを読み書きするときのI / O速度/レイテンシー/レートを測定するために使用できる技術は何ですか?この手法は、比較のためにローカルハードドライブにも適用できますか?
19 performance  nfs 

2
未知のツールが仮想マシンをワイプしており、識別できません
vSphere上のWindows 2008 R2 VMのコンソールビューには、次の画面が表示されます。 「操作2/2」「ディスクのワイピング」 誰かがこのプログラムが何であるかについてアドバイスできますか? この謎に関するいくつかの情報: 多くのVMが影響を受けています。症状は、再起動後に「OS not found」メッセージが表示されることです。 VMはESXiで実行されています。VMは特定のデータストアで実行されています Netapp NFS作業ボックスにディスクをマウントすると、パーティションテーブルが表示されず、まだ16進ダンプができません VMはハードリセットではなく、OSによって開始されたソフトリセットである必要があります マウントされたisoはありませんVMへの「非ゲスト」アクセスはなかったので、RDPまたは類似のものである必要があります。 バックアップは、netappバックアップソフトウェアを使用して一晩実行されます 問題のNFSはバックエンド(アレイレベル)でシンプロビジョニングされており、これらの問題を確認した直後にスペースが不足しました。

4
NFSサーバーが読み取り専用のファイルシステムエラーを返すrwとしてマウントされるのはなぜですか
Ubuntu Server 64ビットに取り組んでいます。NFSをrwとしてマウントしましたが、問題のマウントポイントで何かを編集しようとすると、読み取り専用のファイルシステムエラーが発生します 私のetc/fstab読み取り: # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc nodev,noexec,nosuid 0 0 /dev/mapper/product-root / ext4 errors=remount-ro 0 1 UUID=1cae6948-ca9d-4f0b-aec6-9e7a60bbbad8 /boot ext2 defaults 0 2 /dev/mapper/product-swap_1 none swap sw 0 0 /dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 0 0 vnxnfs1.company.com:/NFS2 /mnt/nfs2 nfs defaults 0 0 mount …

4
NFSのファイルロック?
私のサーバーはNFS(ネットワークファイルシステム)を使用しており、PHPのflock()機能を使用できません。NFS上のファイルをロックする方法はありますか、そうする必要がありますか?

2
NFSとSMBはスパースファイルをサポートしていますか?
この質問は以前にスタックオーバーフローで尋ねられましたが、そこの良き人々は代わりにここでコミュニティを試すことを推奨しています。 さまざまなファイルシステムに関してスパースファイルを調査しており、スパースファイルがネットワークファイルシステム(NFS)またはサーバーメッセージブロック(SMB)でサポートされていることを具体的に説明しようとしています。 SMBはWindowsで広く使用されており、このエントリによると、SMBサーバーは、基になるファイルシステムがサポートしていない場合でもスパースファイルをサポートできることを理解しています。ただし、私が正しい場合、スパースファイルをサポートしないファイルシステムは、「穴」をゼロで埋めるだけであり、これがパフォーマンスの問題につながる可能性があります。 NFSに関しては、スパースファイルをサポートするNFSの使用について何も知りませんでした。 したがって、私の質問は、 NFSおよびSMBでスパースファイルはサポートされていますか?

3
古いnfsファイルハンドルを取得しているときに強制的にマウント解除するにはどうすればよいですか?
トリッキーな状況に陥りました。/ mnt / 1にaufをマウントします aufs on /mnt/1 type aufs (rw,relatime,si=daab1cec23213eea) マウントを解除できません。 sudo umount -f /mnt/1 umount2: Stale NFS file handle umount: /mnt/1: Stale NFS file handle umount2: Stale NFS file handle umount2: Stale NFS file handle マウントポイントをアンマウントするにはどうすればよいですか?(システムを再起動せずに) (注:aufsはNFSではなくopenafsシステムの上にあります。)
17 linux  nfs  mount 

4
exportfs:警告:/ home / user / shareはNFSエクスポートをサポートしていません
「exportfs -r」は、/ home / user / share(ext4)をエクスポートしようとするとこのエラーを返します。 exportfs:警告:/ home / user / shareはNFSエクスポートをサポートしていません。 / etc / exports: / home / user / share 192.168.1.3(rw、no_subtree_check) システムは、nfs-kernel-serverパッケージを備えたUbuntu 10.04です。これが起こっている理由は何ですか?ext4が原因ですか?
16 nfs  export  ext4 

4
再起動後の「古いNFSファイルハンドル」
サーバーノードでは、エクスポートされたフォルダーにアクセスできます。ただし、再起動後(サーバーとクライアントの両方)、フォルダーはクライアントからアクセスできなくなります。 サーバー上 # ls /data Folder1 Forlder2 および/ etc / exportsファイルには /data 192.168.1.0/24(rw,no_subtree_check,async,no_root_squash) クライアントで # ls /data ls: cannot access /data: Stale NFS file handle クライアント側からの共有フォルダーに問題はなかったと言わざるを得ませんが、再起動後(サーバーとクライアント)、このメッセージが表示されます。 それを修正する方法はありますか?

3
暗号化されたubuntuホームディレクトリを使用したNFS
vagrantを使用してNFSをセットアップするのに問題があります: ローカルマシンにNFSをインストールしました。 apt-get install nfs-common nfs-kernel-server そして、私のVagrantfileで使用するように設定します: config.vm.share_folder("v-root", "/vagrant", ".", :nfs => true) 上のvagrant upI取得します: exportfs: /home/<user>/path/to/dir does not support NFS export Mounting NFS shared folders failed. This is most often caused by the NFS client software not being installed on the guest machine. Please verify that the NFS client …

5
数百のVM Webサーバー用のSANテクノロジーの選択
問題 既存のプラットフォームでのパフォーマンスに問題があるため、これに関するセカンドオピニオンを求めています。これまでのパフォーマンスの問題は、スループットではなくIOPSに関連しています。 シナリオ 各ホストに64 GBのRAMを備えた16個のホストのブレードセンター。(M610を搭載したDell M1000eですが、おそらく関係ありません)500 VM、すべてのWebサーバー(または関連するWebテクノロジー(MySQL、ロードバランサーなど)、約90%はLinux、残りはWindowsです。ハイパーバイザーはVMWare vSphereです。ホストHAを提供する必要があるため、ローカルストレージは使用できません。そのため、ホストには起動するSDカードがあります。 ちょっとした背景思考 現在、最大6台のホストであり(ブレードセンターは、現在の成長で1年後にフルキャパシティになります)、拡張のためにMD1220を備えたDell MD3220iに対してiSCSIを実行しています。 私たちが検討した可能性のあるオプション、およびそれらに伴う即時の考え: VMをNFSデータストアに分散し、最大数のVMのパフォーマンス要件を満たすNFSストレージを実行します。NFSは拡張が安価で、ブロックレベルのストレージよりも少し抽象化されているため、必要に応じて移動できます。 さらにMD3220iコントローラー/ターゲットを追加します。ただし、これを行うと、VMWareが多数のターゲットを処理する方法に何らかの形で悪影響を与える可能性があることを懸念しています。 Nearline SASからSSDにすべてのディスクを交換します。これはIOPSの問題を完全に解決するはずですが、ストレージ容量を大幅に削減するという明らかな副作用があります。また、それはまだ非常に高価です。 vSphere 5にはストレージアプライアンスがあります。あまり調査していませんが、うまく機能する必要がありますか? 質問 そのすべての下でどのようなストレージを実行しますか?別のブレードセンターに拡張する必要はなく、それらすべてのVMに比較的良好なパフォーマンスを提供する必要があります。 「最善だからSAN xを購入する」という答えは探していません。さまざまなSANテクノロジー(iSCSI、FC、FCoE、InfiniBand、NFSなど)、さまざまなタイプのストレージ(SATA、SAS、SSD)、および数百台のVMのストレージを処理する方法(統合、分離)についての考えを探しています、シャーディングなど)。 絶対に、これについての考え、リンク、ガイド、ポインタなどは大歓迎です。また、私たちがすでに検討した上記のオプションについての考えを聞きたいです。 どんな入力でも事前に感謝します! 12年3月5日更新 これまでに素晴らしい回答がありました。皆さん、本当にありがとうございました! これまでのところ、この質問に対する回答を見てみると、次のルートが道であると考え始めています。 使用可能なストレージをVMWareクラスターに階層化し、ワークロードに適したストレージにVMディスクを配置します。 適切なストレージへのデータの配置を自動的に管理できるSANを使用する可能性があります。 Infinibandは、フルキャパシティのホストで必要な帯域幅を取得するために最も費用対効果が高いと思われます。 間違いなく、主要なSANベンダーのプリセールスサービスを利用して、シナリオを理解する価値があると思われます。 私はしばらくこの問題を検討し続けます。それまでの間、これ以上のアドバイスはありがたいことに受け取った!

2
ネットワーク共有をキャッシュするNFSサーバーをセットアップする方法は?
ユーザーデータは、2つのかなり大きな(1 PBを超える)OpenStack Swiftストレージクラスターに保存されます。それらをクラスターAおよびクラスターBとします。 さらに、そのデータとやり取りする必要があるPoPがいくつかあります。これらのPoPのサーバーは事実上ディスクレスです。つまり、ユーザーデータがサーバーに保存されたりダウンロードされたりすることはありません。PoPは、一般的な世界の地域(北米、南アフリカ、中央ヨーロッパなど)にグループ化できます。 一部のPoPは、任意のクラスターのSwiftエンドポイントからかなり離れているため、望ましくない遅延が発生します。これをある程度緩和するために、各リージョンにキャッシングゲートウェイサーバーをセットアップします。これにより、最も近いクラスターへのr / w要求がキャッシュされます。 現在、PoPのいずれかのクライアントは、Swift Object Storageをブロックデバイス(多かれ少なかれ)としてマウントするFUSEモジュールである、永続的にマウントされた迅速な仮想ファイルシステムによってユーザーデータにアクセスします。ただし、そもそもsvfsは安定しているわけではなく、将来的にはクライアントはNFS経由でキャッシュサーバーにアクセスする必要があります。 これは、目的のアーキテクチャの1つのブランチの図です。 +------------------+ +------------------+ NFS +------------------+ | Cluster A | SVFS | Region 1 Cache +----------> R1 PoP a Client | | +----------------> | | | |Persistent Storage| |Ephemeral Storage+----+ |Generates R/W Load| +-----------------++ +------------------+ | +------------------+ | | | +------------------+ …


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.