タグ付けされた質問 「r」

このタグは、(a)質問の重要な部分または予想される回答として「R」が含まれる* on-topic *の質問に使用します。&(b)「R」の使い方について「*」だけではありません。

3
Rの時変共変量を使用したワイブル生存モデル
私はワイブルアプローチを使用して生存モデルを実行しようとしていますが、しわがあるのは、時変共変量があるためです。私はRでサバイバルパッケージを使用しています。私の呼び出しは次のとおりです。 output <- survreg(Surv(start, stop, fail) ~ gdppc + [...] + cluster(name), data = mydata, dist="weibull") 次のエラーが発生します。 Error in survreg(Surv(start, stop, fail) ~ gdppclag + : Invalid survival type coxph手順が正常に動作しますが、私はワイブルを使用します。 私の最初の質問は次のとおりです。ワイブルアプローチは、時変共変量を説明できますか?私はいくつかのテキストを見回しましたが、Cox PHアプローチは時変共変量に拡張できることがわかりました。ワイブルアプローチがそれを実行できるかどうかはあまり明確ではありません。 次に、実際にワイブルが機能する場合、それを処理できるRのパッケージは何ですか?

1
TVアトリビューションにARMAXモデルを使用することは有効ですか?
毎時のトラフィックのベースラインがあるウェブサイトがあるとします。また、テレビ広告を断続的に実行しているため、Webトラフィックが増加しています。私のテレビ広告がウェブトラフィックの増加に関してどの程度の影響を与えているのかを調べたいと思います。 毎時のテレビ広告費またはインプレッションを外生変数としてARMAXモデルに当てはめる場合、AR用語は「ベースライントラフィック」を表し、回帰用語はTV広告に起因するトラフィックを表すと主張することは有効ですか? これが私がやろうとしていることのいくつかのサンプルコードです: library(forecast) xmat <- as.matrix(cbind(data[,c("AdSpend","Impressions")])) xvar <- data$WebSessions fit <- Arima(x=xvar, xreg=xmat, order=c(12,0,0), include.constant=FALSE) reg_terms <- fit$coef["AdSpend"] * data$AdSpend + fit$coef["Impressions"] * data$Impressions AR_terms <- fitted(fit) - reg_terms 次に、AR_terms(ベースラインの1時間ごとのWebトラフィック)とreg_terms(TVに起因する1時間ごとのトラフィック)を使用して、積み上げ面グラフを作成できます。 これは有効なアプローチですか? 助けてくれてありがとう。

2
RおよびStataソフトウェアでの重力モデルの計算:係数が同じで標準誤差が異なるのはなぜですか?
RおよびStataソフトウェアで重力モデルの計算を実行しました。 計算にはglmm、R(パラメーター付きfamily = quasipoisson)とppmlStata の標準パッケージを使用しました。 Rで計算手順を呼び出します。 summary(glmm<-glm(formula=exports ~ ln_GDPimporter + ln_GDPexporter + ln_GDPimppc + ln_GDPexppc + ln_Distance + ln_Tariff + ln_ExchangeRate + Contig + Comlang + Colony_CIS + EAEU_CIS + EU_European_Union, family=quasipoisson(link="log"),data=data_pua)) Rの結果は次のとおりです。 同じデータについて、ppml手順を使用して、スタタで計算を実行しました。 ppml exports ln_gdpimporter ln_gdpexporter ln_gdpimppc ln_gdpexppc ln_distance ln_tariff ln_exchangerate contig comlang colony_cis eaeu_cis eu_european_union スタタでの計算結果は次のとおりです。 ご覧のとおり、モデル係数(結果表の2列目)は、少なくとも小数点以下4桁目まで同じです。 …

4
確率積分のシミュレーション
私はp。運動3.9.10を解決しようとしています。Ubbo F. Wiersemaの「ブラウン運動微積分」(ジョン・ワイリー・アンド・サンズ、2008年)の66確率論的積分をシミュレートするように求め、 ∫10B(t) dB(t)∫01B(t) dB(t) \int_0^1 B(t)\ dB(t) 最初にパーティションを使用する [0,1][0,1][0, 1] に n=28n=28n = 2^8 サブインターバルと実行 100010001000 離散確率積分のシミュレーション I(n )=Σi = 0n − 1B (t私)(B (ti + 1)− B (t私))I(n)=∑i=0n−1B(ti)(B(ti+1)−B(ti)) I^{(n)} = \sum_{i = 0}^{n - 1} B(t_i)\left(B(t_{i + 1}) - B(t_i)\right) このため んnn、次に繰り返し2倍にしてこの手順を繰り返す んnn に 2112112^{11}。演習では、結果を積分の閉形式の平均および分散と比較するよう求めます。 ∫10B (t …

1
CDFの既知のポイントに一致するように分布を近似する
最近、ある分布の裾にいくつかの確率ポイントがあり、これらの尾を通る分布に「適合」させたい状況に遭遇しました。これは乱雑で過度に正確ではなく、概念的な問題に悩まされていることを理解しています。しかし、私が本当にこれをやりたいと思っていることを信じてください。 つまりx、値でありy、その値の確率以下であるCDFの末尾のいくつかの点を効果的に知っています。これが私のデータを説明するRコードです: x <- c(0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85) y <- c(0.0666666666666667, 0.0625, 0.0659340659340659, 0.0563106796116505, 0.0305676855895196, 0.0436953807740325, 0.0267459138187221) 次に、を使用して、データとベータ分布CDFの間のエラーを最小限に抑える関数を作成しますpbeta。SSEをフィット指標として使用し、それをで最小化し-sumます。私はに最初のパラメータとして初期推測で投げるoptimの(9, .8)私は別の推測でこれを試してみたが、私はいつも同じ結果を得ます。私が使用する出発点の推測は、手動で近くにあるように見えるパラメーターを手動で調理することから来ています。 # function to optomize with optim beta_func <- function(par, x) -sum( (pbeta( x, par[1], par[2]) - y)**2 ) out <- optim(c(9,.8), beta_func, lower=c(1,.5), upper=c(200,200), method="L-BFGS-B", x=x) out <- …
6 r  optimization 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.