タグ付けされた質問 「freebsd」

FreeBSDは、さまざまなアーキテクチャ向けの高度なオペレーティングシステムです。これは、カリフォルニア大学バークレー校で開発されたUNIX®のバージョンであるBSDから派生しています。そして、個人の大きなチームによって開発され、維持されます。カーネル、ドライバー、シェルなどのユーザーランドユーティリティを含む完全なオペレーティングシステムです。

2
ユーザーがZFSデータセットを受信するために欠落しているアクセス許可をどのように判断できますか?
FreeNAS(11.1-U1)とFreeBSD(11.1-RELEASE-p6)マシンを持っています。FreeNASではzfs receive、委任された権限を持つ非ルートユーザーとして再帰的なスナップショットを作りたいです。これはほとんどの子データセットでうまく機能するようです。しかしdata、刑務所にマウントしてそこから管理できるiocageのデータセットは失敗します。 root@freebsd:~> zfs send -RI "dozer@2018-02-21" "dozer@2018-03-08" | ssh -T -i /root/backup_key backupuser@freenas zfs receive -dvuF neo/backups/freebsd receiving incremental stream of dozer@2018-03-03 into neo/backups/freebsd@2018-03-03 received 312B stream in 1 seconds (312B/sec) receiving incremental stream of dozer@2018-03-07 into neo/backups/freebsd@2018-03-07 received 312B stream in 1 seconds (312B/sec) receiving incremental stream of …

3
接続ユーザーの公開鍵に応じてchrootを使用したSFTP
sshfsを介してさまざまなクライアントからバックアップを受け取るサーバー(DebianまたはFreeBSDを実行)を構築したいと思います。各クライアントは、独自のバックアップデータを読み書きできますが、他のクライアントのデータはできません。 私は次のアイデアを持っていました:各クライアントは公開鍵認証を介してbackup@backupserver.localに接続します。ユーザーバックアップには、次のような特別なauthorized_keysファイルがあります。 command="internal-sftp" chroot="/backup/client-1/data" ssh-rsa (key1) command="internal-sftp" chroot="/backup/client-2/data" ssh-rsa (key2) command="internal-sftp" chroot="/backup/client-3/data" ssh-rsa (key3) etc... これの利点は、クライアントごとに個別のユーザーを使用する必要がなく、スクリプトを使用して簡単にauthorized_keysファイルを自動生成できることです。 ただ1つの問題がありchroot=...ます。それが機能しません。OpenSSHのauthorized_keysファイルには、ChrootDirectoryに相当するものがないようです(これは/ etc / ssh / sshd_configでグローバルに、またはMatch Userブロックで機能します)。 OpenSSHを使用してやりたいことを達成するための合理的に簡単な方法はありますか?たぶんcommand=...賢明な方法でディレクティブを使用していますか?または、私がやりたいことができる他のSFTPサーバーはありますか? 編集:私が達成したいことをより明確にするために:複数のクライアントが私のサーバーにファイルを保存できるようにしたいと思います。各クライアントは他のクライアントのファイルを見ることができません。また、サーバーに何十ものユーザーアカウントを散らかしたくないので、クライアントがユーザーアカウントを共有しても、お互いのファイルにアクセスできない、簡単に管理できるソリューションが欲しいのです。
9 linux  ssh  freebsd  sftp  ssh-keys 

3
ISCSIターゲットとしてのZFSボリューム
ZFSを調査していて、ZFS管理にFreeNASを使用していて、次の質問があります。 ZFSボリュームにiSCSIターゲットを作成するときに、重複排除、自動エラー修正などのZFSの利点はまだ機能しますか? FreeNASでは、これはおそらくZFSボリュームのターゲットとして使用される生のイメージファイルです。(ファイルベースではなく)ブロックベースであるため、ZFSの利点はまだ適用されますか? 編集:使用目的は、VMware(ESXi)のストレージになります。
9 freebsd  zfs  freenas 


4
FreeBSDポート:ポートのすべての依存関係、およびそれらの依存関係のすべてのサブ依存関係を確認するにはどうすればよいですか?
に依存するポートを構築しようとしていますapache-ant。 make build-depends-listこのポートに必要なすべての依存関係を表示するために実行できると思いました。 # make build-depends-list /usr/ports/devel/apache-ant /usr/ports/java/jdk16 /usr/ports/math/gmp しかし、すべてをインストールした後、ポートには1マイルの長さの依存関係リストがありました。 apache-ant-1.8.1 desktop-file-utils-0.15_2 gamin-0.1.10_4 gettext-0.18.1.1 gio-fam-backend-2.26.1 glib-2.26.1_1 gmp-5.0.1 inputproto-2.0 javavmwrapper-2.3.5 kbproto-1.0.4 libX11-1.3.3_1,1 libXau-1.0.5 libXdmcp-1.0.3 libXext-1.1.1,1 libXi-1.3,1 libXtst-1.1.0 libiconv-1.13.1_1 libpthread-stubs-0.3_3 libxcb-1.7 pcre-8.12 perl-5.10.1_3 pkg-config-0.25_1 python26-2.6.6 recordproto-1.14 unzip-6.0 xextproto-7.1.1 xproto この依存関係リストは失礼な驚きであり、ポートのインストールをコミットする前にそれについて知りたいと思います。 ポートのすべての依存関係とすべての従属関係を確認するにはどうすればよいですか?


6
NASボックスとしてのFreeBSD上のZFSに関する推奨事項は?
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 このページの回答は2009年のものであり、福音として信頼されるべきではないことに注意してください。zfsに関する具体的な質問がある場合は、[ 質問する ]ボタンをクリックして具体的な質問をしてください。 FreeBSD 7.2とZFSファイルシステムを使用してホームバックアップシステムを構築することを考えていました。誰もがそのファイルシステムの経験を持っていますか? 具体的には: ZFSから起動できますか?(私はしたいですか?) ドライブを追加するのは簡単ですか? さまざまなサイズのドライブをどの程度うまく処理できますか? 新しいドライブをその場で(または少なくとも再起動だけで)追加できますか? すぐに使えるものがいいでしょうか? 他の考えや提案は大歓迎です。 編集: 明確にするために、私はZFSのFreeBSDページを読みました。私が望んでいるのと同じような設定で実際的な経験を持つ人々からの提案を探しています。

4
FreeBSDでデフォルトのcrontabエディターをnanoに変更
それを使用してcrontabを編集すると、crontab -eviでcrontabが開きます。nanoを使うほうがいいです。どうすればこれを変更できますか? 編集: なんらかの理由でexportコマンドが戻りますcommand not found。また、EDITORのenv値を変更しても、では機能しませんでしたcrontab -e。 次のコマンドは私のシステムで動作しました: setenv VISUAL /usr/local/bin/nano
9 cron  freebsd  vi  linux 

1
ELKスタック(Logstash、Elasticsearch、Kibana)と同時リモートsyslogサーバー?
私は主にpfSenseファイアウォール、XenServerハイパーバイザー、FreeBSD / Linuxサーバー、およびWindowsサーバーの監視を開始するログアナライザーサービスを構築しています。 ELKスタックとそれをうまく機能させる方法については、インターネット上にたくさんのドキュメントがあります。しかし、私はそれを別の方法で使用したいのですが、それが良い解決策なのか、単に時間/ディスク容量の無駄なのかはわかりません。 私はすでにリモートSyslogサーバーとして機能しているFreeBSD 10.2マシンを持っています。私の考えは、すべてのログをこのマシンに集中させ、それらのSyslogサーバーがログをlogstash-forwarderELKサーバーに転送することです。 このアプローチでは、このセットアップのディスク要件が増えることは明らかですが、一方、logstash-forwarderデーモンがインストールされているマシンは1つだけなので、これは私にとっては良さそうです。 しかし、問題について話します。logstashパーサのマッチ[host]ログメッセージを送信するサーバのホスト名と、このアプローチでのみELK、リモートsyslogサーバーの「サーバー」のショーにあります。 logstash構成ファイルの設定をカスタマイズできることは承知していますが、これがパーサーの単純な設定であり、ELK全体が危険にさらされるかどうかはわかりません(経験もありません)。経験。 結局のところ、私のロギングアーキテクチャと、それが機能するのか、それとも他のオプションなしで進むべきなのかについて、いくつかのアドバイスが欲しいだけです。 前もって感謝します、

2
ZVOLの奇妙なZFSディスク領域使用状況レポート
FreeBSD 10.0-CURRENTホストに100G ZVOLがあり、176Gのディスク容量を使用すると主張しています。 root@storage01:~ # zfs get all zroot/DATA/vtest NAME PROPERTY VALUE SOURCE zroot/DATA/vtest type volume - zroot/DATA/vtest creation Fri May 24 20:44 2013 - zroot/DATA/vtest used 176G - zroot/DATA/vtest available 10.4T - zroot/DATA/vtest referenced 176G - zroot/DATA/vtest compressratio 1.00x - zroot/DATA/vtest reservation none default zroot/DATA/vtest volsize 100G local zroot/DATA/vtest …
8 freebsd  zfs  zvol 

6
FreeBSDを実行しているSuperMicroサーバー上のディスクを特定する
ZPoolに6つのディスクを備えたSuperMicro 2Uサーバーで実行しています。FreeBSDのツールからコマンドを実行して、ドライブキャリアLEDを使用して各ドライブベイを識別したいと思います。これを行う方法はありますか? ドライブがRAIDカードの上で実行されている場合は、RAIDカードユーティリティを使用して各ディスクを識別できますが、私の場合、ハードウェアRAIDはありません。 FreeBSDまたはLinuxでこれを行うツールはありますか?

1
FreeBSDでZFSファイルシステムをNFSv4で共有する方法
FreeBSD 9を使用して、ZFSファイルシステムを作成 zfs create tank/project1 zfs set sharenfs=on tank/project1 ネット上のFreeBSDでNFSv3を設定する方法はたくさんありますが、NFSv4を1つも見つけることができません。 たとえば、この HOWTOでは、(NFSv3)をで再起動するnfsd -u -t -n 4必要があると述べていnfsdますが、私も持っていません。 私がする時 # echo /usr/ports/*/*nfs* /usr/ports/net-mgmt/nfsen /usr/ports/net/nfsshell /usr/ports/net/pcnfsd /usr/ports/net/unfs3 /usr/ports/sysutils/fusefs-chironfs /usr/ports/sysutils/fusefs-funionfs /usr/ports/sysutils/fusefs-unionfs # でインストールできるNFSv4サーバーが表示されませんpkg_add。 質問 NFSv4をインストールしてセットアップして、Linuxホストなどから共有をマウントするにはどうすればよいですか?
8 linux  freebsd  nfs  zfs 

1
FreeBSDでnet.inet.tcp.tcbhashsizeを変更する理由
事実上すべてのFreeBSDネットワークチューニングドキュメントで私は見つけることができます: # /boot/loader.conf net.inet.tcp.tcbhashsize=4096 これは通常、「TCP制御ブロックハッシュテーブルのチューニング」や「これを適切な値に設定する」などの役に立たないステートメントとペアになります。man 4 tcpどちらもあまり役に立ちません: tcbhashsize Size of the TCP control-block hash table (read-only). This may be tuned using the kernel option TCBHASHSIZE or by setting net.inet.tcp.tcbhashsize in the loader(8). この不思議なことに触れた唯一のドキュメントは、FreeBSD IPとTCP Stackの最適化の Transport Layerの下にあるProtocol Control Block Lookupサブセクションですが、その説明はそれを使用する際の潜在的なボトルネックについての詳細です。新しいTCPセグメントをリスニングソケットに一致させることに関連しているようですが、方法はわかりません。 正確に何のために使用されるTCP制御ブロックですか?ハッシュサイズを4096または他の特定の数値に設定する理由は何ですか?

2
zfsと将来の拡張性
freebsd 9とzfsを使用してサーバーを構築したい。古いハードウェア(8 GB RAMのIntelクワッドコア)を使用していますが、1 TBディスクを2つまたは3つ購入してもかまいません。また、おそらく使用を停止すると思われる2つの1 TBディスクがすでに入っているdlink RAIDサーバーもあるので、それらの2つのハードディスクは、データを移動するとzfsサーバーで使用できるようになります(現在約300 MB)。 raid 1)新しいサーバーに。 これにより、最初に2つまたは3つのディスクが提供され、zfsサーバーを正常にセットアップしてデータをコピーすると、4つまたは5つのディスクに移動できます。 私の質問は、冗長性とストレージスペースを最大限に活用できるようにzfsプールを最適にセットアップし、将来的に2または3以上のドライブが利用可能になったときに移動できるようにすることです。だから私はそれほど速度を気にしません、とにかく私のイーサネット(1GB /秒でも)がシステムの速度を決定する要素になると思います...? 私の現在の考えは、2つの新しいディスクを購入し、ストライピングモードを使用してセットアップすることです。dlink nasからすべてのデータをコピーしたら、それらのドライブの1つを削除し、新しいドライブの1つのミラーにすることでプールに追加します。アレイが再構築されたら、もう1つのドライブをプールに移動して、2番目の新しいドライブをミラーリングします。すべての処理が完了したら、RAID 10とほぼ同等の「ストライプミラー」ができます。 それは可能ですか、それとも設定するより良い方法がありますか? 繰り返しますが、私の優先事項は、最大の冗長性、メンテナンス(古いドライブをより新しい/より大きなドライブに交換し、プール領域全体を増やす)、利用可能なストレージ領域、および速度です。その順序で。
8 freebsd  zfs 

3
FreeBSD 8.2、/ bin / shを削除、起動できません
私は自分のサーバーの1つで本当に悪い決定をしました。 削除しました/bin/sh。サーバーを再起動しましたが/bin/sh、rcスクリプトを開始する必要があるため、サーバーが実行されません。shが必要なため、シングルユーザーモードにもアクセスできません。 ボーンシェルを再インストールする簡単な方法はありますか? ライブCDからshをコピーしようとしましたが、ld-elf.so.1ライブラリで失敗しました。それをlivecdから/ libexecに/パーティションにコピーしました。次に、libedit.soライブラリが必要です。それを/ libexecにコピーしましたが、今回は機能しません。 へのシンボリックリンクを試しました/usr/local/bin/bashが、それでも「shが見つかりません」というタイプのエラーが表示されます。/usrこれは、rcスクリプトから実行されるため、まだマウントされていないためだと思います。 どんな助けでも大歓迎です。
8 freebsd  sh 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.