タグ付けされた質問 「url」

URLは、Uniform Resource LocatorまたはUniversal Resource Locatorであり、インターネット上のリソースへの参照を識別する一意の文字列です。ユーザーをインターネットリソースにリダイレクトするための読み取り可能なテキストアドレスとして使用できます。

3
title属性を<atitle=…>からChromeのクリップボードにコピーします
Twitterでは、ユーザーは短いURLを使用します(例: http://t.co/DPbRAjVM)。 &lt;a href="..." title="..."&gt;タグのタイトル属性は実際のURLです。 タイトルをクリップボードにコピーしてブラウザウィンドウに貼り付けることができるChrome拡張機能はありますか?URL短縮サービスにクリックスルーするのではなく、実際のURLを取得しようとしています。


2
Visual StudioヘルプシステムがFirefoxでMSDN Webページを呼び出したときにフリーズしないようにNoScriptに指示するにはどうすればよいですか?
したがって、私はVisual Studio 2010 Expressを陽気に使用しており、Webからヘルプを取得するように構成されています。いくつかの言語機能がどのように機能するかについて疑問があり、カーソルを置いてF1を押します。VSはURLを呼び出します。これが起こることです: NoScriptコンソールでは、これがログに記録されます。 [NoScript XSS] Sanitized suspicious request. Original URL [http://msdn.microsoft.com/query/dev10.query?appId=Dev10IDEF1&amp;l=EN-US&amp;k=k(SYSTEM.DRAWING.GRAPHICS);k(TargetFrameworkMoniker-%22.NETFRAMEWORK%2cVERSION%3dV3.5%22);k(DevLang-CSHARP)&amp;rd=true] requested from [chrome://browser/content/browser.xul]. Sanitized URL: [http://msdn.microsoft.com/query/dev10.query?appId=Dev10IDEF1&amp;l=EN-US&amp;k=k%20SYSTEM.DRAWING.GRAPHICS%20%3Bk%20TargetFrameworkMoniker-%20.NETFRAMEWORK%2CVERSION%20V3.5%20%20%3Bk%20DevLang-CSHARP%20&amp;rd=true#7978358773843752283]. しかし、リクエストが正当であることはわかっているので、「unsafe reload」を選択し(もちろん、「ask next time」オプションをチェックしたままにしておきます!)、正しいページが読み込まれます: これで、Visual Studioのヘルプを呼び出すたびにこれを実行できますが、実際にはそうではありません。スマートホワイトリストを追加して、そのようなURLを通過させる方法はありますか?または、NoScript開発者にバグを報告する必要がありますか?

3
Windows用のChromiumブラウザーはどこでダウンロードできますか?[複製]
重複の可能性: クロムバイナリはどこで入手できますか? Windowsビルド用のChromiumブラウザーはどこでダウンロードできますか?ウェブサイトではありません。主要なLinuxディストリビューションでは簡単です。通常、バイナリはリポジトリにあります。ただし、Windowsの場合はもちろん隠されています。もちろん、Googleは代わりにChromeをダウンロードすることを望んでいます(ChromiumのWebサイトで提供されています)。 かつてここにいた。しかし、今は空です(または隠れていますか?)。 ツールバーやカスタムインストーラーとのsoftpedia / download / brothersoftなどのリンクを探しているのではなく、多少安定していると考えられるクリーンな最新ビルドだけを探しています。 -更新- 3つの回答にはすべて固有のリンクがあるため、最高の回答を受け入れ、他の回答を支持しました。 自動ビルドはここにあるようです:http ://commondatastorage.googleapis.com/chromium-browser-snapshots/index.html?path=Win/ (注:遅いページ) ここではWindowsバイナリが提供されないのは残念です:http : //www.getchromium.org/ ここで見ることができるように、特定のビルドを「主流の使用に受け入れられた」として割り当てるための「権限」を探しています(注1:少なくとも執筆時点では、クロムリンクは急速に消滅するようです。注2:変更点すべてのビルド)いくつかのビルドは非常に優れており、他のビルドは改善するまで非常にバグが多いです。 たとえば、Ubuntuのパッケージメンテナーは、リポジトリの更新に適したパッケージメンテナーを選びます。 -更新- これは、最新バージョンを自動的にダウンロードするための便利なツールです。:) Chromium Nightly Updaterと呼ばれます。更新の確認には時間がかかりますが、スナップショットフォルダーで最新のビルドよりも新しいビルドが検出されます。

1
「フラグメントURL」を抽出するためのツール(例:www.example.com#section)[重複]
この質問にはすでに答えがあります。 HTMLページにアンカーを表示するためのプラグイン? 4つの答え そんなことはありますか? 例えば。 Firefoxの拡張機能(または他の種類のブラウザスクリプト)。リンクするWebページのセクションの字幕を右クリックすると、このタイトルのようにハッシュ記号とセクション名の付いたリンクが表示されます。質問。 ページソースを見たりFirebugを使ったりすることで可能だと思いますが、理想的にはそのようなことは避けたいと思いますだから私の母はそれを使用することができます。 (そのようなツールがそこになければ、私はそれを書きたくなります...)

1
特定のフレーズ/キーワードが見つかるか見つからないまでページを更新する拡張機能/スクリプト/プログラム?
Webページを更新し、特定のフレーズまたはテキストを検索し、フレーズが見つかるか見つからないときに停止するブラウザーで使用できるプログラム/拡張機能はありますか? たとえば、「One」、「Two」、「Three」という単語をランダマイザーを使用して循環するサイトを作成したとします。 このプログラムは、「Three」という単語が見つかるまでページを更新します。その単語を見つけるように設定し、見つかったら停止します。 または このプログラムは、「Three」という単語が見つからなくなるまでページを更新します。その単語を見つけるように設定し、見つからない場合は停止します。 curlとgrepを使用してそれを実行できることは知っていますが、ページはwebbrowserにロードされていません。これは私が望むものではありません。ブラウザにもロードできるソリューションがあるかどうかを確認します そのようなものが存在しない場合、この種のプログラムを作成する方法についてのアイデアはありますか?どのツールを使用してそれを行いますか? ありがとう

1
ダウンロード元のWebサイトのURLをファイルに関連付ける方法はありますか?
Ubuntuを使用して、ファイルがダウンロードされたWebサイトのURLをそのファイルに関連付ける方法を見つけようとしています。これまでに調査したことによると、URLは拡張属性を使用して保存できますが、私の問題は、ファイルがダウンロードされたサイトのURLを知る/インターセプトする方法です。 次のリンクも見つけました-http://www.freedesktop.org/wiki/CommonExtendedAttributes/- しかし、これがまだ開発中であるか、ダウンロードしてインストールできるかはわかりません。

5
サーバー名とドメイン名の違いは何ですか?
URLの形式は次のとおりです。 scheme://server:port/pathname ここでサーバーとドメイン名の違いは何ですか?//superuser.com/questions/ask(相対)URLです。 スキームは省略されています(http:)。サーバーはsuperuser.comです。たぶん、サーバーはドメイン名と同じですか?
2 browser  url 

1
Firefoxがドメイン名をマングリングするのを止める方法は?
私が入力するとhttp://example/FirefoxのURLをrewites http://www.example.com/。Firefoxを再コンパイルせずにこの動作を修正する方法はありますか?私は何かabout:configが助けになると思うが、何がわからないのか、それらが私が望む効果を持っているかどうかを見るために、ランダムに物事を変更することにいくらか不安がある。 編集: 私が望むのは、Firefoxがhttpリクエストを送信しようとしexample(これは通常、etc/hostsファイルが提供するアドレスを見つける)、その後、接続できない場合、「接続できません」というエラーで失敗することexampleですアドレスバー。その現在の動作は、検索しようとwww.example.comすることで、「有効な」サイトになりがちです。ドメインスクワットのドロスでいっぱいの画面が表示され、タイプミスを修正する前にアドレスからwww.and を削除する必要があり.comます。

0
nginxのUTF8 URLの場合のURL書き換えの失敗
Nginxウェブサーバーを使用しています。404エラーを防ぐために、サイト上の古いURLを新しいURLに書き換えたいと思います。英語のURLの場合はすべて問題なく、次のような書き換えルールをサーバーブロックに追加すると正常に機能します。 ^ / omid / $ / omidrezaを書き換えます。 しかし、英語以外の文字を含むURLに関しては、ルールは機能しません。誰も同じ問題を経験しましたか?どうすれば問題を修正できますか?

1
Nginxすべてのサブドメインをサブドメイン以外のURLにリダイレクトする
私は現在以下の問題を出しています、そして、地獄によって、私はそれを解決することができません。 &gt;私がGoogleで見つけた20のようなスレッドは助けになりません。 まず第一に、私はこのように見えるHTTPSリダイレクトへの単純なHTTPを作成しました: server { listen 80; server_name my-domain.com; return 301 https://my-domain.com$request_uri; } server { listen 443 ssl http2; server_name my-domain.com; ... } そしてこれは完全にうまくいきます。開こうとすると my-domain.com にリダイレクトされます https:// my-domain.com 。しかし、それでもサブドメインには問題があります。私が開いたら www.my-domain.com または test.my-domain.com 、私はこれらのサブドメインは私のルートにリダイレクトしたいのですが HTTPS ドメイン:https:// my-domain.com。その前にサブドメインがない。 HTTPSサブドメインについても同じことが言えます。私は文字通り(今のところ)サブドメインを禁止したいと思います。 私は追加のようにたくさんの設定を試してみました * .my-domain.com それでもserver_nameには期待どおりには機能しません。 * .my-domain.comから私の通常のHTTPSドメインへのHTTPSリダイレクトを作成しようとしましたが、それでも各設定で同様の結果が得られます。 すべてのHTTPリクエストは、サブドメインを含むHTTPS URLになります。 すべてのHTTPSリクエストがサブドメインなしのHTTPS URLになることはありません。 今私の質問:どのように私はそれにNOサブドメインを含む特定のhttps URLにすべてのサブドメイン(httpとhttps)をリダイレクトできますか?どの組み合わせでも、常に次のようになります。 https:// …


1
実際の場所ではなくアドレスバーにドメインを表示する方法
説明のためにドメイン「example.com」を購入しました。 私は "hosting.be/myname"でホスティングしています。誰かがexample.comにアクセスすると、アドレスバーは自動的にhosting.be/mynameに変わります。 私のドメイン名 'example.com'をアドレスバーに残す方法はありますか? すみませんが、

2
訪問するすべてのWebページを(HTMLまたはMAFF / MHTMLとして)自動保存する-ソリューション [複製]
この質問にはすでに答えがあります: アクセスしたすべてのWebページを保存することはできますか? 7つの答え 私は長い間この問題を解決しようとしてきましたが、複数の可能性があります。これは複雑になります... 基本的に、自動化したいアクティビティは、すべてのページでブラウザがアクセスすることです-「右クリック、名前を付けて保存、xxx.html」アクションですので、閲覧履歴の記録が完全に保存されます。 FirefoxのShelveアドオンはこれをバックグラウンドで正確に自動的に実行し、非常にうまく機能します(実際にはMAFFアーカイブhtml-as-a-a-single-fileを使用できますが、この形式はすべてを遅くするので、 HTMLに使用します)。 問題:他の5つのブラウザーを使用しているため、完全なレコードを作成するには不十分です。 Cyotek WebCopyとWinHTTrackを調べました。どちらも本質的にはWebクローラーであり、URLを入力し、それをHTMLにストリップ/保存し始めます。WinHTTTrackは実際には問題なく動作しますが、長い時間がかかります(ブラウザでxxx.htmlを右クリックするだけで保存するよりもはるかに長くなります)。最悪の場合は自動化されません。 理論上、私がしなければならないことは、すべてのブラウザから閲覧履歴を取得し、アドオン付きのtxtファイルとしてエクスポートし(ブラウザの履歴は通常.sqliteファイルであるため)、それを受け入れるtxtファイルとしてプログラムにフィードすることです、そのURLのリストをクロールして、レベル0または1、または何でも(その特定のプログラムでクロールの深さを指定できます)。 これは、プロセスを実際に自動化できないことを意味するため、非常に面倒です。プログラムにURLを手動でフィードする必要があります。 これの補遺として、訪問したすべてのページのブラウザーに依存しないURLリストを生成できるように、ルーターレベルでのURLロギング/ Webプロキシの設定を調査しました。理論的には、それをクローラーに供給し、おそらく自動化できますか?ただし、このURLログを生成する方法はまだわかりません。有望なプログラムがいくつかあります。Charles(ロギングを使用するWebプロキシ)、Fiddler(Webデバッグ/ロギングツール)などがあります。 Proxy-offline-browserと呼ばれるプログラムは、Webプロキシを使用してすべてのURLを取得し、URLを自動的に保存することで正確に必要な処理を実行するため、有望に見えましたが、明らかにバグが多く、古く、ブラウザの速度が大幅に低下しました。開発者に連絡して、誤って使用していないかどうかを確認します。 また、一度に1つのブラウザでのみ実行されるようです。 私が望んでいることはそれほど難しいとは思わない。 私が望むのは、抽象的に完璧なものです: ブラウザーがWebサイトにアクセスするたびに、URLがログに記録されます(Webの履歴で十分だと思いますが、Webの履歴がすべてのURLをキャプチャするとは限りません)。すべてのブラウザーからのログは、URLの巨大なリストに結合されます。 次に、すべてのURLがブラウザーによって自動的にアクセスされ、HTML(またはより適切な形式)として保存されます。そして、私はそれを1時間ごとに、またはコンピューターがアイドル状態になったときなどに、ある間隔で実行するようにします。 あるいは、マクロを調べました。理論的には、訪問したすべてのページで右クリックして保存しただけで、必要なものを正確に再現できるからです。ただし、ブラウザ用のマクロは、実際には手動でマクロを実行する必要があるため、機能しないようです。 誰も私がこれを行う方法を知っていますか?!
1 browser  logging  history  web  url 


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.