タグ付けされた質問 「function」

2
ロジスティック回帰は、従来の関数ではない曲線をどのように生成できますか?
ロジスティック回帰の機能がどのように機能するのか(または単に全体として機能するのか)について、根本的な混乱があると思います。 関数h(x)が画像の左側に見られる曲線を生成するのはどうですか? これは2つの変数のプロットですが、これら2つの変数(x1およびx2)も関数自体の引数です。1つの変数の標準関数が1つの出力にマッピングされることは知っていますが、この関数は明らかにそれを行っていません。 私の直感では、青/ピンクの曲線は実際にこのグラフにプロットされるのではなく、グラフの次の次元(3番目)の値にマップされる表現(円とX)です。これは推論に誤りがあり、何かが欠けているだけですか?洞察/直感に感謝します。



2
積分の精度を推定する方法は?
コンピュータグラフィックスで非常に一般的な状況は、一部のピクセルの色が一部の実数値関数の積分に等しいことです。多くの場合、関数は複雑すぎて分析的に解くことができないため、数値近似を行います。しかし、この関数は計算に非常にコストがかかることも多いため、計算できるサンプルの数には大きな制約があります。(たとえば、100万サンプルを取得して、そのままにしておくことはできません。) 次に、一般的に、推定積分が「十分に正確」になるまで、ランダムに選択されたポイントで関数を評価します。これは私の実際の質問に私をもたらします:積分の「精度」をどのように推定しますか? 具体的には、があります。これは、いくつかの複雑で低速なコンピューターアルゴリズムによって実装されます。見積もりたいf:R→Rf:R→Rf : \mathbb{R} \rightarrow \mathbb{R} k=∫baf(x) dxk=∫abf(x) dxk = \int_a^b f(x) \ dx 任意のxに対してを計算できますが、コストがかかります。したがって、ランダムにいくつかのx値を選択し、kの推定が許容できるほど正確になったときに停止します。もちろん、これを行うには、現在の見積もりが実際にどれほど正確であるかを知る必要があります。f(x)f(x)f(x)xxxxxxkkk この種の問題にどの統計ツールが適切であるかさえわかりません。しかし、私がfについてまったく何も知らなければ、問題は解決できないようです。たとえば、f (x )を1000回計算し、それが常にゼロの場合、推定積分はゼロになります。しかし、については何も知りませんfは、それがあることはまだ可能だF (xは)= 1 、000 、000をお使いの推定値は恐ろしく間違っているので、あなたは、サンプルに起こった点を除いてどこでも!ffff(x)f(x)f(x)ffff(x)=1,000,000f(x)=1,000,000f(x) = 1,000,000 ffffff 編集: OK、これは多くの応答を生成したようで、これは良いことです。それぞれに個別に返信するのではなく、ここで追加の背景を記入してみます。 ffffffffffff fffffffff fff また、「モンテカルロ」が出現した回数を考えると、それがこの種の統合の専門用語だと思いますか?

3
ニューラルネットワークは、機能とその機能的派生物を学習できますか?
ニューラルネットワーク(NN)は、特定の仮定(ネットワークと近似する関数の両方)の下で、関数とその導関数の両方に対するユニバーサル近似と見なすことができることを理解しています。実際、私は単純であるが自明ではない関数(たとえば、多項式)に対していくつかのテストを行っており、確かにそれらとそれらの1次導関数をよく近似できるようです(例を以下に示します)。 しかし、私には明確でないのは、上記につながる定理が汎関数とその汎関数導関数に拡張される(または拡張される可能性がある)かどうかです。たとえば、汎関数: を汎関数微分: 考え ここで、は、完全かつ非自明に依存します。NNは上記のマッピングとその機能的導関数を学習できますか?より具体的には、ドメインをで離散化し、(離散化された点で)を入力として提供し、F[ f(x )] = ∫badx f (x )g(x )F[f(x)]=∫abdx f(x)g(x)\begin{equation} F[f(x)] = \int_a^b dx ~ f(x) g(x) \end{equation}δF[ f(x )]δf(x )= g(x )δF[f(x)]δf(x)=g(x)\begin{equation} \frac{\delta F[f(x)]}{\delta f(x)} = g(x) \end{equation}f(x )f(x)f(x)g(x )g(x)g(x)バツxx[ a 、b ][a,b][a,b]f(x )f(x)f(x)F[ f(x )]F[f(x)]F[f(x)]出力として、NNはこのマッピングを(少なくとも理論的には)正しく学習できますか?もしそうなら、それはマッピングの機能的導関数も学ぶことができますか? 私はいくつかのテストを行いましたが、NNは確かにある程度マッピング学習するようです。ただし、このマッピングの精度は問題ありませんが、それほど優れていません。そして厄介なのは、計算された関数微分が完全なガベージであるということです(これらの両方はトレーニングなどの問題に関連している可能性があります)。以下に例を示します。F[ f(x )]F[f(x)]F[f(x)] NNが汎関数とその汎関数微分の学習に適していない場合、別の機械学習方法はありますか? 例: A NNが関数学習するように訓練された:(1)以下では、関数とその導関数近似の例である範囲[-3,2]の上には: その妥当からへの近似が得られます: 予想どおり、へのNN近似とその1次導関数は、トレーニング中により良い最小値が見つかるなど、トレーニングポイントの数、NNアーキテクチャーとともに向上することに注意してください。f(x …

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
シーケンスの減少を証明する(多数の点をプロットすることでサポートされます)
先月私がSEに投稿した質問の多くは、この特定の問題を解決する手助けをすることを目的としています。質問はすべて答えられましたが、それでも解決策は思いつきません。それで、私が直接解決しようとしている問題を尋ねるだけでよいと考えました。 LET、、、(整数)、毎オーバー累積分布関数である 。Xn∼FnXn∼FnX_n \sim F_nFn=(1−(1−Fn−1)c)cFn=(1−(1−Fn−1)c)cF_n = (1-(1-F_{n-1})^c)^cF0=xF0=xF_0 = xc≥2c≥2c\geq 2FnFnF_n(0,1)(0,1)(0,1) がすべての(または特定の)でもとともに減少することを証明したい!私が見ることができ、そのに固有の溶液でディラック質量に収束 の場合、。同じに対してを増加させるための累積分布関数のプロットを見ると、すべての累積分布関数が交差しています。値の値について減少する未満の値に対する増加より大きいEXnEXn\mathbb{E}X_nnnnccccccFnFnF_nxc=(1−(1−x)c)c)xc=(1−(1−x)c)c)x_c = (1-(1-x)^c)^c)c=2c=2c=2x2=(3−5–√)/2≈.38x2=(3−5)/2≈.38x_2 = (3-\sqrt{5})/2 \approx .38nnncccxnxnx_nF(x)F(x)F(x)xxxxnxnx_nxxxxnxnx_n(が増加するにつれて)垂直線に収束します。nnnxnxnx_n 下のプロットであるためのののためのに。もちろん離散プロットですが、見やすくするために線をつないでいます。このプロットを生成するために、MathematicaでNIntegrateを使用しましたが、何らかの理由でMathematicaが元の関数高い値で応答を生成できなかったため、で実行する必要がありました。ヤングの定理に従って、2つは同等である必要があります。私の場合、、。EXnEXn\mathbb{E}X_nn=1n=1n = 1404040c=2c=2c = 27771−F−1n1−Fn−11-F^{-1}_nnnn∫10F(x)dx=∫101−F−1(x)dx∫01F(x)dx=∫011−F−1(x)dx\int_0^1F(x)\,dx = \int_0^1 1-F^{-1}(x)\,dxF−1n(x)=1−(1−(F−1n−1)1c)1cFn−1(x)=1−(1−(Fn−1−1)1c)1cF^{-1}_n(x) = 1-(1-(F^{-1}_{n-1})^{\frac{1}{c}})^{\frac{1}{c}}F−1n=xFn−1=xF^{-1}_n = x ご覧のとおり、は、固定点から微小距離まで非常に移動します。以下のように増加、固定小数点減少は(最終的に0になります)。EXnEXnEX_nxcxcx_cccc したがって、すべてのについて、がとともに減少することは確かに事実です。しかし、それを証明することはできません。誰かが私を助けてくれますか?(繰り返しになりますが、が1つでも満足します)できない場合でも、この特定の問題が解決できない理由について洞察があれば、その洞察も共有してください。 EXnEXnEX_nnnncccccc

2
グローバルに最適化可能なコスト関数を定式化することによって問題に取り組む利点
これはかなり一般的な質問です(つまり、必ずしも統計に固有ではありません)が、著者が次のアプローチに従うことを好む機械学習および統計文献の傾向に気づきました。 アプローチ1:(たとえば、計算の観点から)大域的に最適なソリューションを見つけることができるコスト関数を(たとえば、凸コスト関数を公式化することによって)公式化することにより、実際的な問題の解決策を取得します。 のではなく: アプローチ2:グローバルに最適なソリューションを取得できない可能性があるコスト関数を定式化して、同じ問題のソリューションを取得します(たとえば、ローカルに最適なソリューションしか取得できない)。 厳密に言えば2つの問題は異なることに注意してください。前提は、最初の解決策ではグローバルに最適な解を見つけることができるが、2番目の解決策では見つからないことです。 その他の考慮事項(つまり、速度、実装の容易さなど)は別として、私は次のことを探しています。 この傾向の説明(例:数学的または歴史的な議論) 実用的な問題を解決する際に、2ではなくアプローチ1に従う利点(実用的および/または理論的)。

1
ニューラルネットワークの内部動作の幾何学的直観を理解するにはどうすればよいですか?
私は最近ANNの背後にある理論を研究しており、非線形マルチクラス分類の能力の背後にある「魔法」を理解したいと思いました。これにより、この近似がどのようにして達成されるかを幾何学的に説明するこのウェブサイトに私を導きました。 ここに私がそれを(3Dで)理解した方法があります。非表示のレイヤーは、次のような3Dステップ関数(またはタワー関数)を出力すると考えることができます。 著者は、そのような複数のタワーを使用して、任意の関数を近似することができると述べています。次に例を示します。 これは理にかなっているようですが、著者の構成は、概念の背後にある直感を提供するようにかなり工夫されています。 しかし、任意のANNが与えられた場合、これをどのように正確に検証できますか?これが私が知りたい/理解したいことです: 私の知る限り、近似は滑らかな近似ですが、この「直感」は離散近似を提供するようですが、それは正しいですか? 塔の数は隠れ層の数に基づいているようです-上記の塔は2つの隠れ層の結果として作成されています。これを(3Dの例で)1つの非表示レイヤーだけで確認するにはどうすればよいですか? タワーは、いくつかの重みがゼロに強制されて作成されますが、これまでに試してみた一部のANNがこれに該当することはありません。それは本当にタワー機能でしょうか?4から辺でほぼ円に近いものは何ですか?(著者はそれが事実であると言いますが、それを自己学習として残します)。んんn ANNを単一の非表示レイヤーで近似できる任意の3D関数の3Dでのこの近似機能を本当に理解したいと思います。この近似が多次元の直感を定式化するためにどのように見えるかを確認したいですか? これが私が助けることができると私が考えていることです: ような任意の3D関数を取ります。f(x1、x2)= x21+ x22+ 3f(バツ1、バツ2)=バツ12+バツ22+3f(x_1,x_2) = x^2_1 + x^2_2 + 3 のトレーニングセットを生成します。たとえば、1000データポイントの多くのポイントが、曲線の上と下のいくつかにあります。曲線上のものは「陽性クラス」としてマークされ(1)、「陰性クラス」としてマークされないもの(0)(x1、x2)(バツ1、バツ2)(x_1,x_2) このデータをANNに送り、1つの隠れ層(約2〜6個のニューロン)で近似を視覚化します。 この構成は正しいですか?これはうまくいくでしょうか?これを行うにはどうすればよいですか?私はこれを自分で実装するための逆伝播にまだ熟達しておらず、この点についてより明確で方向性を模索しています。これを示す既存の例が理想的です。

2
統計関数でInfsを適切に処理する方法
次のような関数があるとします。 f <- function(x){ exp(x) / (1 + exp(x)) } これは、xの任意の実際の値で機能するはずですが、実際には、xが710以上の場合、NaNを返します。この問題を処理する適切な方法は何だろうと思います。1を返すだけにするのは簡単だと思いますが、統計学者の観点からは、それは良い行動ではないかもしれません。誰かコメントや提案がありますか?
8 r  function  numerics 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.