タグ付けされた質問 「finance」

マネー、バンキング、クレジット、投資、資産、負債の管理、作成、研究を説明する科学。

4
GARCHとARMAの違いは何ですか?
私は混乱しています。ARMAとGARCHのプロセスの違いを理解していません。 これが(G)ARCH(p、q)プロセスです σ2t= α0+ ∑i = 1qα私r2t − iA R CH+ ∑i = 1pβ私σ2t − iG A R CHσt2=α0+∑i=1qαirt−i2⏟ARCH+∑i=1pβiσt−i2⏟GARCH\sigma_t^2 = \underbrace{ \underbrace{ \alpha_0 + \sum_{i=1}^q \alpha_ir_{t-i}^2} _{ARCH} + \sum_{i=1}^p\beta_i\sigma_{t-i}^2} _{GARCH} そして、ここにARMA(p 、qp,qp, q)があります: バツt= c + εt+ ∑i = 1pφ私バツt − i+ ∑i = 1qθ私εt − i。Xt=c+εt+∑i=1pφiXt−i+∑i=1qθiεt−i. X_t = c …
42 arima  garch  finance 

4
エッジケースの精度と再現率の正しい値は何ですか?
精度は次のように定義されます: p = true positives / (true positives + false positives) それは、それを修正しているtrue positivesとfalse positives、精度が1に近づくアプローチ0? リコールに関する同じ質問: r = true positives / (true positives + false negatives) 現在、これらの値を計算する必要がある統計テストを実装していますが、分母が0である場合があり、この場合にどの値を返すのか迷っています。 PS:不適切なタグをすみません、、およびを使用したいのですがrecall、新しいタグをまだ作成できません。precisionlimit
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
ガールフレンドが未来を伝えることができるかどうかを判断する方法(つまり、株価を予測する方法)
私のガールフレンドは最近、大手銀行で販売と取引をする仕事に就きました。彼女は新しい仕事に支えられて、今月末に株価がチャンスよりも上がるか下がるかを予測できると考えています(80%の精度でそれを行うことさえできると信じています!) 私は非常に懐疑的です。私たちは、彼女がいくつかの株を選択する実験を行うことに同意し、事前に決められた時間に、それらが上昇しているか下降しているかをチェックします。 私の質問はこれです。彼女が株を正確に予測できることを自信を持って伝えるのに十分な統計力を得るために、彼女は何株を選び、何株を正さなければなりませんか? たとえば、80%の精度で株を選ぶことを95%の確実性で伝えるために、何株を選ぶ必要がありますか? 編集:私たちが同意した実験では、彼女は株価が上昇または下降する量を予測する必要はありませんが、上昇または下降する場合のみです。


4
平均のロバストt検定
ランダム変数に対して、軽度から中程度のスキューとランダム変数の尖度の影響を受けるローカル代替に対して、ヌルをテストしようとしています。「ロバスト推定と仮説検定入門」でのウィルコックスの提案に従って、トリミングされた平均値、中央値、および位置のM推定量(Wilcoxの「ワンステップ」手順)に基づいた検定を見てきました。これらの堅牢なテストは、歪んでいないがレプトクルティックな分布でテストする場合、パワーの点で標準のt検定よりも優れています。E [ X ] > 0 XE[ X] = 0E[X]=0E[X] = 0E[ X] > 0E[X]>0E[X] > 0バツXX ただし、偏った分布でテストする場合、これらの片側検定は、分布が左スキューであるか右スキューであるかに応じて、帰無仮説の下で非常にリベラルまたは保守的すぎます。たとえば、観測値が1000の場合、中央値に基づくテストでは、実際には、公称5%レベルで、時間の約40%が拒否されます。この理由は明らかです。歪んだ分布では、中央値と平均値はかなり異なります。しかし、私のアプリケーションでは、中央値ではなく、平均値をテストする必要があります。 平均を実際にテストするt検定のより堅牢なバージョンはありますが、スキューと尖度の影響を受けませんか? 理想的には、この手順は、スキューのない、尖度の高いケースでもうまく機能します。「1ステップ」テストはほぼ十分で、「bend」パラメーターは比較的高く設定されていますが、スキューがない場合のトリム平均テストよりも強力ではなく、スキュー下のリジェクトの公称レベルを維持するのに問題があります。 背景:中央値ではなく平均値を本当に気にする理由は、テストが金融アプリケーションで使用されるからです。たとえば、ポートフォリオに正の期待対数収益があるかどうかをテストする場合、ポートフォリオに投資すると、すべての収益(平均サンプル数)が発生するため、平均は実際に適切です中央値の重複。つまり、私は本当にRVからのドローの合計に関心があります。n XnnnnnnバツXX

1
量的金融におけるHMMの使用。トレンド/ターニングポイントの検出に機能するHMMの例は?
「政権交代モデル」とも呼ばれる「隠れマルコフモデル」と呼ばれる素晴らしい世界を発見しています。RのHMMを適応させて、傾向と転換点を検出したいと思います。多くの価格でテストできるように、できるだけ一般的なモデルを作成したいと思います。 誰でも論文を推薦できますか?私はいくつかを見てきました(そして読んでいます)が、実装が簡単なシンプルなモデルを探しています。 また、どのRパッケージが推奨されますか?多くの人がHMMをやっていることがわかります。 「時系列の隠れマルコフモデル:Rを使用した導入」という本を購入しました。中身を見てみましょう;) フレッド

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

7
株式市場の予測に使用できる機械学習アルゴリズムは何ですか?
または、外国為替市場を予測するため。これはかなり複雑になる可能性があることを知っているので、序論として、ある程度の精度を持つ単純な予測アルゴリズムを探しています。 (4か月続く修士課程のプロジェクト用です) 多層ニューラルネットワークが役立つ可能性があることを読みました。それについて何か考えはありますか?さらに、ソーシャルメディアのセマンティック分析は、株式市場に影響を与える市場行動の洞察を提供する場合があります。ただし、セマンティック分析は、現時点ではプロジェクトの範囲外です。

2
金融/経済学研究における不規則な間隔の時系列
金融計量経済学の研究では、日次データの形をとる金融時系列間の関係を調査することは非常に一般的です。多くの場合、変数は対数の差を取ることによってになります。。私(0 )私(0)I(0)ln(Pt)− ln(Pt − 1)ln⁡(Pt)−ln⁡(Pt−1)\ln(P_t)-\ln(P_{t-1}) ただし、毎日のデータは、毎週データポイントがあり、土曜日と日曜日が欠落していることを意味します。これは、私が知っている応用文献では言及されていないようです。この観察から得られた私が持っているいくつかの密接に関連した質問はここにあります:555 週末に金融市場が閉鎖されたとしても、これは不規則な間隔のデータとみなされますか? もしそうなら、この問題を無視する膨大な数の論文でこれまでに得られた現存の経験的結果の妥当性に対する結果は何ですか?

4
ARMA-GARCHを適用するには、定常性が必要ですか?
財務時系列にARMA-GARCHモデルを使用する予定であり、このモデルを適用する前にシリーズを固定する必要があるかどうか疑問に思っていました。私はARMAモデルを適用することを知っていますが、シリーズは定常でなければなりませんが、揮発性クラスタリングと非一定の分散を意味するGARCHエラーを含むため、ARMA-GARCHについてはわかりません。 金融時系列は通常、定常的ですか、それとも非定常ですか?いくつかの揮発性シリーズにADFテストを適用してみたところ、p値<0.01が得られました。これは定常性を示しているようですが、揮発性シリーズ自体の原理から、シリーズは静止ではないことがわかります 誰かが私のためにそれをクリアできますか?私は本当に混乱しています


1
機械学習を使用して財務時系列を予測するための最初のステップ学習
機械学習を使用して、将来の1つ以上のステップの財務時系列を予測する方法を把握しようとしています。 いくつかの記述データを含む財務時系列があり、モデルを作成し、そのモデルを使用して先のnステップを予測したいです。 私がこれまでやってきたことは: getSymbols("GOOG") GOOG$sma <- SMA(Cl(GOOG)) GOOG$range <- GOOG$GOOG.High-GOOG$GOOG.Low tail(GOOG) GOOG.Open GOOG.High GOOG.Low GOOG.Close GOOG.Volume GOOG.Adjusted sma range 2013-05-07 863.01 863.87 850.67 857.23 1959000 857.23 828.214 13.20 2013-05-08 857.00 873.88 852.91 873.63 2468300 873.63 834.232 20.97 2013-05-09 870.84 879.66 868.23 871.48 2200600 871.48 840.470 11.43 2013-05-10 875.31 880.54 872.16 …

2
イベント研究方法論へのベイズのアプローチの計量経済学
イベント研究は、経済への影響と金融で広く行われ、イベントが株価に与える影響を特定しますが、ほとんどの場合、頻度論的推論に基づいています。イベントウィンドウとは異なる参照期間にわたるOLS回帰は、通常、資産の通常の収益をモデル化するために必要なパラメーターを決定するために使用されます。次に、指定されたイベントウィンドウから間のイベント後のアセットの累積異常リターン()の統計的有意性を決定します。仮説検定を使用して、これらのリターンが有意であり、実際に異常であるかどうかを判断します。したがって:i T 1 T 2車CAR\text{CAR}私iiT1T1T_1T2T2T_2 H0:車私= 0H0:CARi=0H_0 : \text{CAR}_i = 0、ここで 車私= ∑T2t = T1AR私、t= ∑T2t = T1(r私、t− E [ r私、t] )CARi=∑t=T1T2ARi,t=∑t=T1T2(ri,t−E[ri,t])\text{CAR}_i = \sum_{t=T_1}^{T_2} \text{AR}_{i,t} = \sum_{t=T_1}^{T_2} \left( r_{i,t} -\mathbb{E}[r_{i,t}] \right)、および E [ r私、t]E[ri,t]\mathbb{E}[r_{i,t}]は、モデルによって予測された資産の収益です。 観測数が十分に多い場合、資産収益の分布の漸近的正規性を仮定できますが、これは、サンプルサイズが小さい場合には検証されない場合があります。 このため、(訴訟などで必要とされる)単一企業、単一イベントの調査は、ベイジアンアプローチに従う必要があると主張できます。これは、無限に多くの繰り返しを想定すると、ケースの場合よりも「検証されない」ためです。複数の企業の。しかし、頻出主義的アプローチは依然として一般的な慣行です。 このテーマに関する乏しい文献を考えると、私の質問は、ベイジアンアプローチを使用して、イベントスタディに上手くアプローチする方法です。 この問題は、経験的な企業金融のコンテキスト内で発生しますが、それは、ベイジアン回帰と推論の計量経済学、および頻度論的アプローチとベイジアンアプローチの背後にある推論の違いについてです。具体的には: ベイジアンアプローチを使用してモデルパラメーターの推定に最も近づくにはどうすればよいですか(ベイジアン統計の理論的理解はあるものの、経験的研究にそれを使用した経験はほとんどない)。 (モデルからの通常のリターンを使用して)累積異常リターンが計算されたら、統計的有意性をどのようにテストしますか? これはMatlabでどのように実装できますか?

1
月次収益の分散に基づく年次収益の分散
私は時系列の財務的リターンの全体的な分散/標準誤差の事柄を理解しようとしています、そして私は行き詰まっていると思います。期待値1.00795、分散0.000228(標準偏差は0.01512)の一連の月次株価データ(としましょう)があります。年間リターンの最悪のケースを計算しようとしています(たとえば、期待値から標準誤差の2倍を引いたとしましょう)。それを行う最善の方法はどちらですか?A。1か月分()を計算し、それを12倍します(= 0.7630)。B。月が独立していると仮定して、 12回定義し、期待値を見つけますXXX μX−2⋅σX=0.977μX−2⋅σX=0.977\mu_X-2\cdot \sigma_X=0.977 Y=X⋅X⋅...⋅XY=X⋅X⋅...⋅XY=X\cdot X\cdot ...\cdot XE[Y]=(E[X])12E[Y]=(E[X])12E[Y]=(E[X])^{12})と分散。この場合の標準偏差は0.0572であり、期待値から標準偏差の2倍を引いた値が0.9853です。C。月次標準偏差にを乗算して年間偏差を取得します。これを使用して年間最悪のケースを見つけます値()。0.9949と表示されます。 どちらが正しいですか?予想される年間値からstdの2倍を計算するには、月次データについてのみこれらのプロパティがわかっている場合、正しい方法は何ですか?(一般的に、 12回、場合、var[Y]=(var[X]+(E[X])2)12−((E[X]2)12var⁡[Y]=(var⁡[X]+(E[X])2)12−((E[X]2)12\operatorname{var}[Y]=(\operatorname{var}[X]+(E[X])^2)^{12} - ((E[X]^2)^{12} 12−−√12\sqrt{12}μ−2⋅σμ−2⋅σ\mu - 2\cdot \sigmaY=X⋅X⋅...⋅XY=X⋅X⋅...⋅XY=X\cdot X\cdot ...\cdot XμXμX\mu_XσXσX\sigma_X知られている、何ですか?)μY−2⋅σYμY−2⋅σY\mu_Y-2\cdot \sigma_Y

1
サンプルの分位点の代わりにコーニッシュフィッシャー拡張を使用する理由
コーニッシュフィッシャー展開は瞬間に基づく分布の分位数を推定する方法を提供します。(この意味で、モーメントに基づく累積分布の推定値を提供するEdgeworth Expansionを補完するものだと考えています。)経験的作業よりもコーニッシュフィッシャー展開を好む状況を知りたいのですが。サンプル分位、またはその逆。いくつかの推測: 計算上、サンプルのモーメントはオンラインで計算できますが、サンプルの変位値のオンライン推定は困難です。この場合、CFが「勝つ」。 瞬間を予測する機能があれば、CFにより、これらの予測を分位点推定に活用できます。 CF展開では、観測値の範囲外の変位値の推定値が得られる可能性がありますが、サンプル変位値はおそらくそうではありません。 CFによって与えられた変位値推定値の周囲の信頼区間を計算する方法を知りません。この場合、サンプル分位は「勝ち」ます。 CF展開では、分布のより高い複数のモーメントを推定する必要があるようです。これらの推定値のエラーは、CF拡張がサンプル分位点よりも高い標準エラーを持っているような方法でおそらく複合します。 他のもの?これらの方法の両方を使用した経験がある人はいますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.