タグ付けされた質問 「intuition」

統計についての概念的または非数学的な理解を求める質問。

2
なぜキューイング理論問題の到着プロセスをモデル化するためにポアソン分布が選択されるのですか?
個人がサービングノードに到着してキューイングするキューイング理論のシナリオを検討する場合、通常、ポアソンプロセスを使用して到着時間をモデル化します。これらのシナリオは、ネットワークルーティングの問題で発生します。ポアソンプロセスが到着をモデル化するのに最適な理由について、直感的な説明をいただければ幸いです。


2
コーシー分布はどういうわけか「予測不可能な」分布ですか?
コーシー分布はどういうわけか「予測不可能な」分布ですか? やってみた cs <- function(n) { return(rcauchy(n,0,1)) } Rで多数のn値を取得し、時折非常に予測不可能な値を生成することに気付きました。 例と比較してください as <- function(n) { return(rnorm(n,0,1)) } 常に「コンパクトな」ポイントクラウドが得られるようです。 この写真では、正規分布のように見えるはずですか?ただし、値のサブセットに対してのみ有効な場合があります。または、おそらく、コーシーの標準偏差(下の写真)がはるかにゆっくり(左右に)収束するため、低い確率ではあるが、より深刻な外れ値が許容されるのでしょうか? ここで通常のrvとcsはコーシーrvです。 しかし、外れ値の極値によって、Cauchy pdfのテールが収束しない可能性はありますか?

7
ポアソン分布が二項分布の限定的なケースである理由を直感的に理解する
DS Siviaによる「データ分析」では、二項分布からポアソン分布の導出があります。 彼らは、ポアソン分布はときの二項分布の限定的なケースであると主張しています。M→∞M→∞M\rightarrow\inftyここで、MMMは試行回数です。 質問1:その議論はどのように直感的に理解できますか? 質問2:なぜ大であるMMMの上限M NにM!N!(M−N)!M!N!(M−N)!\frac{M!}{N!(M-N)!}等しいMNN!MNN!\frac{M^{N}}{N!}、NNNはMMM回の試行の成功数ですか?(このステップは派生で使用されます。)

4
典型的なセットコンセプト
典型的なセットの概念は非常に直感的だと思いました:シーケンスが出る確率が高い場合、長さシーケンスは典型的なセット属します。そのため、可能性が高いシーケンスはます。(定性的に理解しようとしているため、エントロピーに関連する正式な定義を避けています。)nnnA(n )ϵAϵ(n)A_\epsilon ^{(n)}A(n )ϵAϵ(n)A_\epsilon ^{(n)} ただし、一般的に、最も可能性の高いシーケンスは典型的なセットに属していません。これは私に大きな時間を混乱させました。 典型的なセットの直感的な定義はありますか?それとも、常識とはあまり関係のない数学的なツールですか?

3
直感のために、無相関であるが従属するランダム変数の実際の例は何ですか?
非相関が独立を意味しない理由を説明する際に、ランダム変数の束を含むいくつかの例がありますが、それらはすべてとても抽象的に見えます:1 2 3 4。 この答えは理にかなっているようです。私の解釈:ランダム変数とその二乗は無相関の場合があります(明らかに相関の欠如は線形独立性に似ているため)が、明らかに依存しています。 例としては、(標準化された)高さと高さ2は無相関だが依存しているかもしれないが、高さと高さ2を比較したい理由がわからない。22^222^2 初等確率理論または同様の目的で初心者に直観を与える目的で、無相関だが従属する確率変数の実際の例は何ですか?

2
定常性の直感的な説明
私はしばらくの間、頭の中で静止状態と格闘していました...これについてあなたはどう思いますか?ご意見やご感想をいただければ幸いです。 定常プロセスは、分布の平均と分散が一定に保たれるように時系列値を生成するプロセスです。厳密に言えば、これは弱い形式の定常性または共分散/平均定常性として知られています。 定常性の弱い形式は、時系列が時間全体にわたって一定の平均と分散を持っている場合です。 簡単に言えば、実務者は定常時系列はトレンドのない時系列であると言います-一定の平均を中心に変動し、一定の分散を持ちます。 異なるラグ間の共分散は一定であり、時系列の絶対位置に依存しません。たとえば、tとt-1(一次遅れ)の間の共分散は常に同じである必要があります(1960年から1970年までの期間、1965年から1975年までの期間、またはその他の期間)。 非定常プロセスでは、系列が元に戻る長期的な意味はありません。したがって、非定常時系列は復帰を意味しないと言います。その場合、分散は時系列の絶対位置に依存し、時間の経過とともに分散は無限になります。技術的に言えば、自己相関は時間とともに減衰しませんが、小さなサンプルではそれらは消えますが、ゆっくりではあります。 定常プロセスでは、衝撃は一時的なものであり、時間とともに消散します(エネルギーを失います)。しばらくすると、それらは新しい時系列値に寄与しません。たとえば、第二次世界大戦のようにログ時間前に発生した(十分に長い)何かが影響を及ぼしましたが、今日の時系列は第二次世界大戦が発生しなかった場合と同じであり、ショックはエネルギーを失ったと言えますまたは散逸した。多くの古典的な計量経済学の理論は定常性の仮定の下で導出されるため、定常性は特に重要です。 定常性の強い形式は、時系列の分布がまったく同じ谷時間である場合です。言い換えれば、元の時系列の分布は、時系列のラグ(任意の数のラグによる)または時系列のサブセグメントとまったく同じです。たとえば、強い形式は、サブセグメント1950〜1960、1960〜1970、または1950〜1960と1950〜1980などの重複期間でも、分布が同じであることを示唆しています。この形式の定常性は、分布を仮定しないため、強いと呼ばれます。それは、確率分布が同じであるべきだと言うだけです。弱い定常性の場合、その平均と分散によって分布を定義しました。暗黙的に正規分布を仮定したため、この単純化を行うことができました。正規分布は、その平均と分散または標準偏差によって完全に定義されます。これは、(時系列内の)シーケンスの確率測度は、同じ時系列内の値の時間差/シフトシーケンスの確率測度と同じであると言うことに他なりません。

1
Benjamini-Hochberg FDR手順が機能する理由を直感的に説明できますか?
Benjamini and Hochberg(1995)の手順が実際に偽発見率(FDR)を制御する理由を説明する簡単な方法はありますか?この手順は非常にエレガントでコンパクトですが、独立性の下で機能する理由の証明です(1995年の論文の付録に記載されていますいます)はあまりアクセスできません。

1
距離相関の直感的な特性評価はありますか?
私はそれがどのように計算できるかによって特徴付けられると思われる距離相関についてウィキペディアのページを見つめてきました。計算はできましたが、距離相関の測定値と、計算が実際のように見える理由を取得するのに苦労しています。 それが測定するものを理解するのを助けることができる距離相関の(または多くの)より直感的な特性評価はありますか? 直観を求めることは少しあいまいですが、どんな直感を求めているかを知っていれば、そもそも尋ねなかっただろう。また、2つのランダム変数間の距離相関のケースに関する直感を喜んでいます(2つのランダムなベクトル間で距離相関が定義されている場合でも)。

4
一貫性のあるものと漸近的に偏らないものの違いを直感的に理解する
私は、一貫性のある用語と漸近的に偏りのない用語の違いと実際的な違いを直感的に理解し、感じるようにしています。私はそれらの数学的/統計的定義を知っていますが、私は直感的な何かを探しています。私には、それぞれの定義を見ると、ほとんど同じように見えます。違いは微妙なはずだと思いますが、わかりません。私は違いを視覚化しようとしていますが、それはできません。誰か助けてもらえますか?


1
簡単なオッズ
オッズを理解するのに苦労していますが、それらの解釈方法について基本的な説明をお願いします。 オッズに関連するさまざまな投稿を見つけましたが、それらのほとんどは私が理解しようとしているものよりも複雑です。オッズの解釈方法の例を次に示します。イベントが発生するオッズが3対1の場合、イベントは発生しない1回ごとに3回発生します。この解釈が正しいかどうかはわかりません。したがって、オッズの解釈に関するガイダンスやその他の例は大歓迎です。

1
循環統計の高次モーメントの直観
循環統計では、円上の値を持つ確率変数の期待値は、として定義され ます(wikipediaを参照)。これは、分散定義と同様に、非常に自然な定義 したがって、分散を定義するために2番目の瞬間は必要ありませんでした!ZZZSSSm1( Z)= ∫SzPZ(θ )のD θm1(Z)=∫SzPZ(θ)dθ m_1(Z)=\int_S z P^Z(\theta)\textrm{d}\theta V a r( Z)= 1 − | m1( Z)| 。Var(Z)=1−|m1(Z)|。 \mathrm{Var}(Z)=1-|m_1(Z)|. それにもかかわらず、より高いモーメントを定義します これは一見するとかなり自然に見え、線形統計の定義に非常に似ていることを認めます。しかし、それでも私は少し不快に感じ、以下を持っていますmn( Z)= ∫SznPZ(θ )D θ 。mn(Z)=∫SznPZ(θ)dθ。 m_n(Z)=\int_S z^n P^Z(\theta)\textrm{d}\theta. 質問: 1. 上記で定義されたより高いモーメントによって(直感的に)測定されるものは何ですか?分布のどの特性がモーメントによって特徴付けられますか? 2.高次モーメントの計算では、複素数の乗算を使用しますが、ランダム変数の値は単に平面内のベクトルまたは角度として考えます。この場合、複素乗算は基本的に角度の加算であることを知っていますが、それでもなお、 なぜ複素乗算は循環データにとって意味のある演算なのでしょうか?

1
Halmos-Savage定理の直感的な理解
Halmos-サベージ定理が優勢統計モデルのことを言う(Ω 、A、P)(Ω,A,P)(\Omega, \mathscr A, \mathscr P)統計量T :(Ω 、A、P)→ (Ω '、A ')T:(Ω,A,P)→(Ω′,A′)T: (\Omega, \mathscr A, \mathscr P)\to(\Omega', \mathscr A')で十分であるすべてのための(及び場合のみ)であれば{ P ∈ P }{P∈P}\{P \in \mathscr{P} \} が存在するTTTラドンNikodym誘導体の-measurableバージョンのD PがDのPは、*dPdP∗\frac{dP}{dP*}ここで、DP*はdP∗dP*、特権尺度であるように、Pは*=Σは ∞ iは= 1 PICIをP∗=∑∞i=1PiciP*=\sum_{i=1}^\infty P_i c_i するためのCI>0、Σは ∞ iが= 1、Ciは=1ci>0,∑∞i=1ci=1c_i >0, \sum _{i=1}^\infty c_i =1とPI∈PをPi∈PP_i \in \mathscr P。 定理が真である理由を直感的に把握しようとしましたが、成功しませんでしたので、定理を理解する直感的な方法があるかどうかが私の質問です。

2
完全な十分な統計とは何ですか?
完全な十分な統計を理解するのに苦労していますか? レッツ十分統計量とします。T=ΣxiT=ΣxiT=\Sigma x_i 場合確率が1で、いくつかの機能のためにG、それは完全に十分統計量です。E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg しかし、これはどういう意味ですか?ユニフォームとベルヌーイ(6ページhttp://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf)の例を見てきましたが、直観的ではなく、統合を見るともっと混乱しました。 誰かがシンプルで直感的な方法で説明できますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.