タグ付けされた質問 「html」

19
シンプルなコマンドラインHTTPサーバー
いわゆる一般大衆に提供したい日報を生成するスクリプトがあります。問題は、HTTPサーバー(Apacheなど)の頭痛の種のメンテナンスに、すべての構成とセキュリティの影響を追加したくないことです。 本格的なHTTPサーバーを構成する手間をかけずに1つの小さなHTMLページを提供するための非常にシンプルなソリューションはありますか?


4
基本的なHTMLをすばやくレンダリングできるシンプルなBashツールはありますか?
時々、簡単なタスクを実行して、基本的なHTMLをコンソールに出力する必要があります。一目で読みやすくするために、最小限にレンダリングしてもらいたいです。シェルで基本的なHTMLレンダリングを処理できるユーティリティはありますか(Lynxスタイルのレンダリングを考えてください。実際のブラウザではありません)。 たとえば、時々watchApacheのmod_statusページに次のように表示します。 watch -n 1 curl http://some-server/server-status ページの出力は、最小限のマークアップを持つHTMLであり、シェルに次のように表示されます。 <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"> <html><head> <title>Apache Status</title> </head><body> <h1>Apache Server Status for localhost</h1> <dl><dt>Server Version: Apache/2.2.22 (Ubuntu) PHP/5.3.10-1ubuntu3.15 with Suhosin-Patch</dt> <dt>Server Built: Jul 22 2014 14:35:25 </dt></dl><hr /><dl> <dt>Current Time: Wednesday, 19-Nov-2014 15:21:40 UTC</dt> <dt>Restart Time: Wednesday, 19-Nov-2014 15:13:02 …

7
2つのタグ間のテキスト
これら2つのタグの間にあるものはすべて<tr> </tr>、HTMLドキュメントから取得したいです。現在、HTMLパーサーを保証する特定のHTML要件はありません。私は単に一致<tr>し</tr>、その間にすべてを取得するものが必要であり、複数trのものが存在する可能性があります。私はawkを試しましたが、それはうまくいきますが、何らかの理由で抽出された各行の複製を与えることになります。 awk ' /<TR/{p=1; s=$0} p && /<\/TR>/{print $0 FS s; s=""; p=0} p' htmlfile> newfile これについてどうやって行くのですか?

4
シェルで何百ものHTMLソースコードファイルを解析する方法は?
数百のHTMLソースコードファイルがあります。<div>これらの各ファイルから特定の要素の内容を抽出する必要があるため、各ファイルをループするスクリプトを作成します。要素の構造は次のとおりです。 <div id='the_div_id'> <div id='some_other_div'> <h3>Some content</h3> </div> </div> the_div_idlinuxコマンドラインを使用してファイルからdiv とすべての子要素とコンテンツを抽出する方法を提案できる人はいますか?

1
muttでHTML添付ファイルを外部で開く
最近、muttがメッセージウィンドウにHTML電子メールを表示できるように、mailcapを設定することができました。 # ~/.mailcap text/html; lynx -dump '%s' | more; nametemplate=%s.html; copiousoutput; 以下によって自動化されます: # ~/.muttrc auto_view text/html lynxHTMLをテキストに変換するのにまともな仕事をしていると思いますが、これでうまくいかない場合があり、WebブラウザーでHTML添付ファイルを開くことができます(luakit)。 これを透過的に行う方法はありますか?私にとって良いワークフローは次のようになります。 メールを開きます(lynx変換します) 複雑すぎてわかりません lynx 「v」を押す HTML添付ファイルに移動します Enterキーを押して、メールを開きluakitます。
19 mutt  browser  html  lynx 

1
どうやってhtmlをlynxにパイプするのですか?
コンソールからいくつかのajax呼び出しをテストしています。私はhtmlマークアップであるメタ情報ノイズを取り除き、コンテンツを読み取るのが好きなので、それをlynxなどのターミナルブラウザーにパイプします。 まだ: curl www.google.de | lynx lynxの新しいインスタンスを開くだけです。 したくない: curl www.google.de > someFile.html && lynx someFile.html
11 pipe  curl  html  stdin  lynx 

5
Linuxのマニュアルページをgroffを使用せずにHTMLに変換するにはどうすればよいですか?
Linuxのいくつかのmanページをgroffを使わずにHTMLに変換したいと思います。groffに対する私の偏見は、Sabayaon にローカライズされているように見える、PNGレンダリングの問題が原因です(これらの問題は、他のディストリビューションのVirtualBox VMでは発生しないようです)。これはバグだと思いますが、近いうちに解決策はないようですので、LinuxのmanページをHTMLに変換する方法が他にないか尋ねたいと思います。http://linux.die.net/manで HTMLページを使用することは、私が興味を持っているmanページのいくつかがそこにない(たとえば、emerge(1)そこにない)ため、許容できる解決策ではありません。
11 man  conversion  html 

1
クリップボードからHTMLをマークダウンテキストとして保存
Webページのセクションを強調表示してクリップボードにコピーし、マークダウンとしてローカルディスクに保存できるようにしたいのですが。それを行うための効率的な方法が必要です。 私の現在の面倒な方法は: セクションをハイライトしてクリップボードにコピー Libre Office Writerを開く Writerに貼り付ける WriterドキュメントをHTMLとして保存 オープンターミナル cd HTMLを保存したディレクトリに pandoc -s -r html /home/me/a/b/mydoc.html -o /home/me/a/b/mydoc.md 明らかに、もっと良い方法が必要です!助言がありますか?

4
csvをHTMLテーブルに変換
Medical.csv次の形式の行を含むファイルがあります。 field: 'participation.type', displayName: 'program_type', type: 'String',path:'participation' field: 'participation.program', displayName: 'program_name', type: 'String',path:'participation' 私が書きたいbashスクリプトを持つHTMLテーブルに変換しfield、displayNameかつtype動的ヘッダーなど。 Csv2HtmlConverter.sh(で答えに触発使用してHTMLテーブルに変換するCSV形式)であります echo "<table>" ; while read INPUT ; do echo "<tr><td>${INPUT//,/</td><td>}</td></tr>" ; done < Medical.csv ; echo "</table>" 上記のスクリプトの結果は以下のようになりますが、ある程度は問題ありませんが<th>field</th>、<th>displayName</th>動的にを追加したいと思います。 <table> <tr><td>field: 'participation.type'</td><td> displayName: 'program_type'</td><td> type: 'String'</td><td>path:'participation'</td></tr> <tr><td>field: 'participation.program'</td><td> displayName: 'program_name'</td><td> type: 'String'</td><td>path:'participation'</td></tr> </table>

2
JavaScriptでポストペイントされたコンテンツを含むWebページをフェッチできるSeleniumRC以外の優れたツールはありますか?
の主な欠点の1つcurlは、最初のHTTP応答の後に発生するJavaScript AJAX応答によって主要なコンテンツがペイントされているウェブページが増えていることです。curlこのポストペイントされたコンテンツを取得することはありません。 したがって、コマンドラインからこれらのタイプのウェブページを取得するために、SeleniumRCを駆動してFirefoxインスタンスを起動し、これらのAJAX呼び出しが完了した後にソースHTMLを返すスクリプトをRubyで書くことに限定されました。 この種の問題には、より簡潔なコマンドラインソリューションを用意する方がはるかに優れています。誰か知っていますか?
8 wget  http  html  curl  selenium 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.