タグ付けされた質問 「nonlinear」

このタグは広すぎるため非推奨です。より具体的なタグを見つけてください。

2
非線形モデルの適合度
観測データに非線形関数を適合させました。次のステップは、この関数の適合度の評価です(線形モデルのように)。R2R2R^2 これを測定する通常の方法は何ですか? 編集1: フィッティングは次のように実行されました。 独立変数AおよびBを使用して線形回帰を実行します。 回帰パラメーターから分布のパラメーターを計算します。(分布は非線形であり、変数Cを入力として使用します。) 推定データと観測データを比較して、非線形分布の適合度を評価します。 編集2: 上記のステップの例: 回帰モデル:log(y)=β0+β1⋅log(a)+β2⋅log(b)log(y)=β0+β1⋅log(a)+β2⋅log(b)log(y) = \beta_0 + \beta_1 \centerdot log(a) + \beta_2 \centerdot log(b) およびθ=β2次の非線形分布のために:F()=ρ⋅A-θρ=−β0β1ρ=−β0β1\rho = -\frac{\beta_0}{\beta_1}θ=β2θ=β2\theta = \beta_2f(a)=ρ⋅a−θf(a)=ρ⋅a−θf(a) = \rho \centerdot a^{-\theta} f(a)f(a)f(a)(a,f(a))(a,f(a))(a, f(a))

3
SPSSを使用した2x3混合設計ANOVAの事後テスト?
実験中に3回評価された10人の参加者の2つのグループがあります。グループ間および3つの評価全体の違いをテストするために、group(コントロール、実験)、time(最初、2、3)、およびを使用して2x3混合設計ANOVAを実行しましたgroup x time。両方timeとgroup有意な相互作用があったほか、重大な結果group x time。 グループメンバーシップに関しても、3回の評価の違いをさらにチェックする方法をよく知りません。実際、最初は、ANOVAのオプションで、ボンフェローニの補正を使用してすべての主要な効果を比較することだけを指定しました。しかし、この方法で、グループを区別せずに、サンプル全体の時間の違いをこのように比較したことに気付きましたね。 したがって、可能な解決策を見つけるためにインターネットでたくさん検索しましたが、結果はほとんどありませんでした。私と同じようなケースは2つしか見つかりませんでしたが、解決策は逆です! 記事では、混合設計の後、著者らは被験者ごとに1つずつ、2回の反復測定ANOVAを事後的に実行しました。このようにして、2つのグループは修正なしで個別に分析されます。 インターネットのガイドでは、混合ANOVAの実行中に、SPSS構文のCOMPARE(time) ADJ(BONFERRONI)直後にを手動で追加すると述べています/EMMEANS=TABLES(newgroup*time)。このように、3つの時間はグループごとに個別に比較されます。ボンフェローニ補正を使用すると、私は正しいのでしょうか。 どう思いますか?どちらが正しい方法でしょうか?
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

1
RBFカーネルを使用した非線形SVM分類
私は、RBFカーネルで非線形SVM分類器を実装しています。通常のSVMとの唯一の違いは、ドット積をカーネル関数に置き換えるだけでよいということです: 通常の線形SVMのしくみを知っています。つまり、2次最適化問題(デュアルタスク)を解決した後、最適な分割超平面をとして計算します。 および超平面のオフセット ここで、はトレーニングベクトルのリスト、はそれぞれのラベル()、K(xi,xj)=exp(−||xi−xj||22σ2)K(xi,xj)=exp⁡(−||xi−xj||22σ2) K(x_i,x_j)=\exp\left(-\frac{||x_i-x_j||^2}{2\sigma^2}\right) w∗=∑i∈SVhiyixiw∗=∑i∈SVhiyixi w^*=\sum_{i \in SV} h_i y_i x_i b∗=1|SV|∑i∈SV(yi−∑j=1N(hjyjxTjxi))b∗=1|SV|∑i∈SV(yi−∑j=1N(hjyjxjTxi)) b^*=\frac{1}{|SV|}\sum_{i \in SV}\left(y_i - \sum_{j=1}^N\left(h_j y_j x_j^T x_i\right)\right) xxxyyyyi∈{−1,1}yi∈{−1,1}y_i \in \{-1,1\}hhhはラグランジュ係数で、はサポートベクトルのセットです。その後、と単独で使用して簡単に分類できます:。SVSVSVw∗w∗w^*b∗b∗b^*cx=sign(wTx+b)cx=sign(wTx+b)c_x=\text{sign}(w^Tx+b) しかし、RBFカーネルではそのようなことはできないと思います。示唆するいくつかの資料を見つけました。それなら簡単でしょう。それにもかかわらず、私はこのカーネルにそのような分解が存在するとは考えておらず、どこにも言及されていません。分類にはすべてのサポートベクターが必要な状況ですか?もしそうなら、その場合どのように分類しますか?K(x,y)=ϕ(x)ϕ(y)K(x,y)=ϕ(x)ϕ(y)K(x,y)=\phi(x)\phi(y)

4
R-squaredは本当に非線形モデルの無効なメトリックですか?
SSR + SSE = SSTotalの関係が成立しないため、非線形二乗モデルではR-2乗が無効であることを読みました。これが真実である理由を誰かが説明できますか? SSRとSSEは、回帰ベクトルと残差ベクトルの二乗ノルムであり、成分はそれぞれとです。これらのベクトルが互いに直交している限り、予測子の値を当てはめられた値にマップするために使用される関数の種類に関係なく、上記の関係が常に成り立つとは限りません。私トンの時間私thi^{th}(Y私^−Y¯)(Y私^−Y¯)(\hat{Y_i}-\bar{Y})(Y私−Y私^)(Y私−Y私^)(Y_i-\hat{Y_i}) さらに、最小二乗の定義により、任意の最小二乗モデルに関連付けられた回帰ベクトルと残差ベクトルは直交しませんか?残差ベクトルは、ベクトルと回帰ベクトルの差です。残差/差分ベクトルが直交しないような回帰ベクトルの場合、回帰ベクトルに定数を掛けて、残差/差分ベクトルと直交するようにすることができます。これにより、残差/差分ベクトルのノルムも減少します。(Y私−Y私¯)(Y私−Y私¯)(Y_i-\bar{Y_i}) これをうまく説明できなかった場合は、教えてください。明確にするように努めます。

1
R、nls()またはnlm()の非線形最小二乗法対最尤法?
モデルを推定しています E(Y| バツ)= Pr (Y= 1 | バツ)=α0+(1 −α0−α1)ϕ(バツ』β)、E(Y|X)=Pr(Y=1|X)=α0+(1−α0−α1)ϕ(X′β),E(Y|X) = Pr(Y=1|X) = \alpha_0 + (1 - \alpha_0 - \alpha_1)\phi(X'\beta), どこ α0α0\alpha_0およびはパラメーター、はパラメーターの長のベクトル、はデータの行列、従属変数はバイナリー、はプロビットモデルなので、累積分布標準正規分布の関数。予想を導き出すために、エラーは正常で平均ゼロであるという仮定がなされました。α1α1\alpha_1ββ\betapppバツXXp × np×np \times nYYYϕ ()ϕ()\phi() モデルのソースはここにあり(式6および7を参照)、論文に従って、非線形最小二乗法または最尤法のいずれかを使用してモデルを推定できます。nls()非線形最小二乗のnlm()関数と最大尤度の関数を使用して、Rで両方のアプローチを試しました。実験により、私のアプリケーションの結果は非常によく似ていることが示唆されていますが、nls()高速です。どちらか一方のアプローチを優先する理由はありますか?メソッドの選択についてはどのように考えればよいでしょうか。 これらの2つのアプローチの違いを検討するための提案、または関連する参考文献の提案をいただければ幸いです。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.