タグ付けされた質問 「http」

ハイパーテキスト転送プロトコルを使用するプログラムとサービスに関するすべて。

19
シンプルなコマンドラインHTTPサーバー
いわゆる一般大衆に提供したい日報を生成するスクリプトがあります。問題は、HTTPサーバー(Apacheなど)の頭痛の種のメンテナンスに、すべての構成とセキュリティの影響を追加したくないことです。 本格的なHTTPサーバーを構成する手間をかけずに1つの小さなHTMLページを提供するための非常にシンプルなソリューションはありますか?


7
ルートアクセスなしで/ etc / hostsに書き込むのと同様に、オーバーライドDNSを作成できますか
ブラウザで使用するDNSレコードを設定したいのですが、ルートアクセス権がないため、変更できません/etc/hosts。dnsがまだセットアップされていないapacheでvhostをテストするためにこれを行う必要があります。firefoxとchromeにアクセスできるので、それを促進できるプラグインがあれば。または他のオプションが役立ちます。 更新: DNSをオーバーライドする代わりに、おそらくHTTPヘッダーを変更します。正しいヘッダーがapacheに送信された場合、正しいコンテンツが返されます。

4
Apache httpd“ Server:” HTTPヘッダーを変更します
Apachehttpdが応答データとともに送信するHTTPヘッダーの1つは「サーバー」です。たとえば、私のWebサーバーマシンは比較的最新のArch Linuxです。次のようなヘッダーを送り返します。 HTTP/1.1 404 Not Found Date: Thu, 10 Apr 2014 17:19:27 GMT Server: Apache/2.4.9 (Unix) Content-Length: 1149 Connection: close Content-Type: text/html 私が持っているServerSignature offで/etc/httpd/conf/httpd.confはなく、「サーバー:」ヘッダがまだ表示されます。mod_headersを試しました。私はそれを有効にし、いくつかのことを試しました: <IfModule headers_module> Header set ProcessingTime "%D" Header set Server BigJohn </IfModule> httpd上記の構成で停止して開始した後、HTTPヘッダーにはのようなものが含まれProcessingTime: 1523ますが、「Server:」ヘッダー行は変更されません。だから、「mod_headers」がインストールされて有効になっていて、動作していることは知っていますが、私が望むほどではありません。 「mod_security」と呼ばれるものがこれを行うと主張しているように見えますが、mod_securityが運ぶ荷物の残りのすべてを望んでいません。 更新: あなたが得ればmod_securityインストールし、あなただけのいくつかのディレクティブが必要になります。 <IfModule security2_module> SecRuleEngine on ServerTokens Full SecServerSignature "Microsoft-IIS/6.0" </IfModule> それはのためだmod_security2.7.7

7
接続不良で大きなファイルをダウンロードする
悪い接続で大きなファイルをダウンロードするために使用できる既存のツールはありますか? 300 MBの比較的小さなファイルを定期的にダウンロードする必要がありますが、低速(80〜120 Kバイト/秒)のTCP接続は10〜120秒後にランダムに切断されます。(それは大企業のネットワークです。私たちは彼らの管理者(インドで働いている)に何度も連絡しましたが、彼らは何もしたくない、またはしたくないのです。)問題はリバースプロキシ/ロードバランサーにあるかもしれません。 これまで、変更したバージョンのpcurlを使用していました:https : //github.com/brunoborges/pcurl 私はこの行を変更しました: curl -s --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & これに: curl -s --retry 9999 --retry-delay 3 --speed-limit 2048 --speed-time 10 \ --retry-max-time 0 -C - --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & --speed-limit 2048 --speed-time 10接続が失敗した場合、ほとんどの場合接続が数分間ハングするだけなので、追加する必要がありました。 しかし最近、このスクリプトでさえ完了できません。 1つの問題は、-C -部品を無視しているように見えるため、再試行後にセグメントを「継続」しないことです。関連する一時ファイルを切り捨て、失敗するたびに最初から開始するようです。(オプション--rangeと-Cオプションは一緒に使用できないと思います。) もう1つの問題は、このスクリプトがすべてのセグメントを同時にダウンロードすることです。300個のセグメントを持つことはできません。そのうち10個のみが一度にダウンロードされます。 この特定の目的のためにC#でダウンロードツールを作成することを考えていましたが、既存のツールがある場合、またはcurlコマンドが異なるパラメーターで適切に機能する場合は、時間を割くことができます。 更新1:追加情報:並列ダウンロード機能は、接続ごとに帯域幅の制限(80〜120 Kバイト/秒、主に80)があるため、削除しないでください。したがって、10接続で10倍の速度が向上します。ファイルは1時間ごとに生成されるため、ファイルのダウンロードは1時間で完了する必要があります。
30 curl  http  download 

4
SSH経由でHTTP音楽ストリームを再生するにはどうすればよいですか?
ローカルマシンでストリームmplayer <stream>を開いて再生するためにできることを知っています。しかし、私はファイアウォールの内側にいます。 代わりに、リモートマシンでストリームを開きたいが、それでもこのマシンで再生したい。リモート接続はSSHの目的ですが、リモートでストリームを開いて再生することの両方を実行します。ssh "mplayer <stream>" SSHの-xフラグは、X11ディスプレイ転送を有効にします。それが必要ですか?
29 ssh  http  mplayer  streaming  music 

2
curlなどのコマンドがエラーなしで完了したかどうかを確認する方法
curlを使用して、HTTPポスト経由でファイルをサーバーにアップロードしています。 curl -X POST -d@myfile.txt server-URL コマンドラインでこのコマンドを手動で実行すると、などのサーバーから応答が返されます"Upload successful"。ただし、スクリプトを使用してこのcurlコマンドを実行する場合、POST要求が成功したかどうかを確認するにはどうすればよいですか?

2
POST要求をダンプするだけの汎用HTTPサーバー?
私は、すべてのHTTP POSTリクエストを喜んで除外してダンプする、特定の部分をリッスンするコマンドラインツールを探しています。 テスト目的、つまりHTTP POSTリクエストを発行するクライアントのテストに使用します。 これは、対応するものを検索していることを意味curl -Fします(テストHTTP POSTをHTTPサーバーに送信するために使用できます)。 おそらく次のようなものですsocat TCP4-LISTEN:80,fork,bind=127.0.0.1 ...が、HTTPを使用しないのでsocatは十分ではありません。

3
HTTP / HTTPSトラフィックのスニッフィングにはどのツールを使用できますか?
HTTP / HTTPSリクエストをインターセプトし、(コンテンツ、宛先など)などの情報を抽出し、さまざまな分析タスクを実行し、リクエストをドロップするかどうかを最終的に決定できるコマンドラインツールを探しています。法的要求は、アプリケーションに転送する必要があります。 本質的にtcpdump、Wireshark、またはSnortに似ていますが、HTTPレベルで動作するツール。 参照資料 LinuxでのHTTPリクエストのインターセプト

3
PPPoE経由のLinuxで選択したhttpsサイトにアクセスできない
インターネット接続は、プロバイダーへの直接LAN接続でした。当時、WindowsとUbuntuの両方ですべてが正常にロードされました(デュアルブート)。しかし、しばらく前に、ユーザー名とパスワードを使用してダイヤル(PPPoE)を要求するようになりました。ゲートウェイ、サブネットマスク、IP、DNSサーバーはすべて同じままでした。しかし、それ以降、Windowsでそのような問題は発生していませんが、Ubuntuで特定のWebサイトを閲覧することができませんでした。いくつかのウェブサイトの例-Ovi のサインインページ(share.ovi.comは正常にロードし、nokia.comは正常にロードします)、Live Mail(Chrome(ium)およびOperaで動作しますが、Firefox(3.6および4の両方)では動作しません)Mozilla アドオンWebサイトおよびその他のランダムWebサイト。 ロードされないウェブサイトの一部はタイムアウトメッセージを表示し、一部のウェブサイト(mozアドオンなど)では、ブラウザは終了せずにロードを試行し続けます(何時間もそれを残しましたが、何も変わっていないことに気付きませんでした)起こる)。 DNSサーバーをパブリックサーバーに変更しようとしました。私ものFedoraのLiveCDからの起動を試してみましたし、その後、(とさえOpenDNSののものに)ものにDNSを変更しますが、まったく同じことが起こります。この問題の原因となっているLinux自体の一部の構成に本質的に問題があるのは何ですか? なぜこれが起こっているのか、どのように修正できるのか誰もが知っていますか? 注:この質問はSUにクロスポストされていますが、回答はありません。 更新:他の誰かが同様の問題を抱えていることをここで見ただけで、NetworkManager.confファイルをに入れることで解決しました/etc/NetworkManager。そのファイルには何が必要ですか?
18 networking  ip  internet  http 

4
HTTPポート80にtelnetで接続するにはどうすればよいですか?
Googleで検索した後telnet、httpポートにWebサーバーでアクセスしGET、htmlページの取得に使用できることがわかりました。 例: $ telnet web-server-name 80 しかし、私はこれがどのように可能か理解できませんか? ポート80がhttpサーバー用である場合、ポート80はhttp要求のみをリッスンすると考えました。しかし、私はどのようにtelnetしてHTTP港に行くことができますか? ではなくtelnet、HTTP2つの異なるプロトコルですか?

2
Webサーバーのディレクトリリストと同期する
HTTP経由でディレクトリリストとフォルダーの同期を維持する簡単な方法はありますか? 編集: wgetのヒントをありがとう!シェルスクリプトを作成し、cronジョブとして追加しました。 remote_dirs=( "http://example.com/" "…") # Add your remote HTTP directories here local_dirs=( "~/examplecom" "…") for (( i = 0 ; i < ${#local_dirs[@]} ; i++ )) do cd "${local_dirs[$i]}" wget -r -l1 --no-parent -A "*.pdf" -nd -nc ${remote_dirs[$i]} done # Explanation: # -r to download recursively # -l1 …

2
HTMLの代わりにバイナリを返すWget?
wgetを使用して静的なHTMLページをダウンロードしています。W3C Validatorは、ページがUTF-8でエンコードされていることを教えてくれます。それでも、ダウンロード後にファイルをcatすると、大量のバイナリナンセンスが得られます。私はUbuntuを使用していますが、デフォルトのエンコーディングはUTF-8だと思いましたか?それは私のロケールファイルが言っているようです。なぜこれが起こっているのですか、どうすれば修正できますか? また、のように見えますContent-Encoding: gzip。おそらくこれは差分になりますか? これは簡単なリクエストです: wget https://www.example.com/page.html 私もこれを試しました: wget https://www.example.com/page.html -q -O - | iconv -f utf-16 -t utf-8 > output.html 返されたもの: iconv: illegal input sequence at position 40 ファイルをcat'ingすると、次のようなバイナリが返されます。 l�?חu�`�q"�:)s��dġ__��~i��6n)T�$H�#���QJ 結果xxd output.html | head -20: 00000000: 1f8b 0800 0000 0000 0003 bd56 518f db44 ...........VQ..D 00000010: 107e a6bf 62d4 …

2
GNU makeの前提条件としてHTTPからのファイルをどのように使用できますか?
私のメイクファイルの前提条件として、World Wide Webからのファイルを使用したいと思います。 local.dat: http://example.org/example.gz curl -s $< | gzip -d | transmogrify >$@ makeが正常に動作するのと同じように、リモートファイルがローカルファイルよりも新しい場合にのみ「変換」します。 example.gzのキャッシュコピーを保持したくありません。ファイルが大きく、生データは必要ありません。できれば、ファイルをダウンロードしないようにします。目標は、makeフラグを使用してこれらのいくつかを並行して処理することです。-j これを解決するきれいな方法は何ですか?いくつかの方法が考えられます。 空のダミーファイルを保管しておき、ターゲットが再作成されるたびに更新する GNU makeの新しいプラグインシステムを使用するプラグイン(私は何も知りません) ローカルファイルシステムにHTTPサーバーをマウントする不可知論的な方法 さらに掘り下げる前に、いくつかのアドバイス、できれば具体的な例をお願いします!

3
HTTPサーバーをファイルシステムとしてマウント
複数のリモートサーバーをマウントして、それらすべてに集中的にアクセスしたいマシンがあります。リモートのLinuxベースのシステムでは、正常に機能するSSHFSを使用しています。しかし、Windowsシステム、またはSSHのないシステムの場合、すべてのサーバーに何らかの形式のHTTPサーバーがインストールされ、ファイルを共有します(したがって、すべてのディレクトリの参照が有効になっています)。 SSHFSなどのローカルファイルシステムとしてHTTPサーバーをマウントできますか?これらのリモートサーバーをすべてローカルにマウントし、統一された方法で表示できますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.