タグ付けされた質問 「inference」

サンプルデータから母集団パラメーターに関する結論を導き出す。https://en.wikipedia.org/wiki/Inferenceおよびhttps://en.wikipedia.org/wiki/Statistical_inferenceを参照してください

1
参照母集団が与えられた場合の成功確率の推定
次の状況があるとします。 比較的少ない数のゲーム(たとえば、1〜20)をプレイする1000人のボウリングプレーヤーを時間の経過とともに観察しました。あなたは、各プレーヤーがプレイしたゲームの数に対する各プレーヤーのストライキの割合を記録しました。 新しいボウリングプレーヤーが入ってきて、10ゲームをプレイし、3ストライクを取得します。 いずれかのプレーヤーのストライク数の分布は二項分布であると見なされます。 そのプレイヤーの「真の」成功確率を推定したいと思います。 次の点に注意してください。 これは実際の状況や学校の問題ではなく、自分で考えた問題です。 私はStats 101コースよりも統計教育が少ない学生です。私は最尤推定のような推論について少し知っています...だから私が読むべき統計の領域を教えてください。 私の問題は情報が不足しているかもしれません、または、例えば成功確率の分布がほぼ正常であることが有益であるなら、私にそう教えてください。 どうもありがとうございました

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


2
最尤パラメーターは事後分布から逸脱しています
推定したいいくつかのモデルパラメーター与えられた場合、データ確率に対する尤度関数があります。パラメータの平坦な事前分布を仮定すると、尤度は事後確率に比例します。MCMCメソッドを使用して、この確率をサンプリングします。L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N 結果の収束チェーンを見ると、最尤パラメーターが事後分布と一致していないことがわかります。例えば、パラメータの1つに取り残さ事後確率分布があるかもしれないの値が、最尤点である、MCMCサンプラーが通過するほぼ最大値です。θ0∼N(μ=0,σ2=1)θ0∼N(μ=0,σ2=1)\theta_0 \sim N(\mu=0, \sigma^2=1)θ0θ0\theta_0θML0≈4θ0ML≈4\theta_0^{ML} \approx 4θ0θ0\theta_0 これは実例であり、実際の結果ではありません。実際の分布ははるかに複雑ですが、一部のMLパラメーターは、それぞれの事後分布に同様にありそうもないp値を持っています。一部のパラメーターが制限されていることに注意してください(例:); 境界内では、事前分布は常に均一です。0≤θ1≤10≤θ1≤10 \leq \theta_1 \leq 1 私の質問は: そのような逸脱自体が問題なのでしょうか?明らかに、MLパラメーターが周辺化された事後分布のそれぞれの最大値と正確に一致することは期待していませんが、直感的には、それらが尾の奥にあるはずがないように感じます。この偏差は結果を自動的に無効にしますか? これが必ずしも問題であるかどうかに関係なく、データ分析のある段階で特定の病理の兆候である可能性がありますか?たとえば、このような偏差が不適切に収束したチェーン、不適切なモデル、またはパラメータの過度に厳しい境界によって引き起こされる可能性があるかどうかについて、一般的な説明をすることはできますか?

1
仮説検定と科学的方法
このスレッドへの回答を読んで、私は仮説検定が科学的方法とどのように関連しているか疑問に思い始めました。私は両方をよく理解していますが、両者を正確に結び付けるのに苦労しています。 高レベルでは、科学的方法は次のようになります。 推測と仮説を立てる(理論) この理論から予測する 実験と観察を行う 新しい理論をテストして受け入れる場合 データは、代替理論よりも正確に(より)予測に適合します 新しい理論は他のもっともらしい選択肢よりも複雑ではありません 大まかに言えば、科学的手法はこのように、統計的仮説検定の「不合格の場合は拒否」アプローチと対照的な「適合の場合は合格」アプローチに従うと私には思われます。これは正しいです?もしそうなら、なぜこれが当てはまるのですか?どちらも基本的に同じ目標を追い求めているのではありません。観察を最もよく説明する理論またはモデルを推測しますか?

1
深い生成モデルのVAEと確率的バックプロパゲーションの違いは何ですか?
ディープ生成モデルの自動エンコード変分ベイズと確率的バックプロパゲーションの違いは何ですか?両方の方法での推論は同じ結果につながりますか?著者の両方のグループが互いに引用しているにもかかわらず、2つの方法の明確な比較については知りません。

1
UMVUEの存在との推定量の選択にで人口
してみましょうから引き出されたランダムサンプルで人口。(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n)N(θ,θ2)N(θ,θ2)\mathcal N(\theta,\theta^2)θ∈Rθ∈R\theta\in\mathbb R のUMVUEを探しています。θθ\theta 結合密度は(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n) fθ(x1、x2、⋯ 、xん)= ∏i = 1ん1θ 2 π−−√exp[ − 12つのθ2(x私− θ )2]=1(θ2 π−−√)んexp[ −12θ2Σi = 1ん(x私- θ)2]=1(θ 2 π−−√)んexp[ 1θΣi = 1んバツ私− 12つのθ2Σi = 1んバツ2私− n2]= g(θ 、T(x))h (x)∀(x1、⋯ 、xん)∈ Rん、∀θ ∈ Rfθ(x1,x2,⋯,xn)=∏i=1n1θ2πexp⁡[−12θ2(xi−θ)2]=1(θ2π)nexp⁡[−12θ2∑i=1n(xi−θ)2]=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈R\begin{align} f_{\theta}(x_1,x_2,\cdots,x_n)&=\prod_{i=1}^n\frac{1}{\theta\sqrt{2\pi}}\exp\left[-\frac{1}{2\theta^2}(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[-\frac{1}{2\theta^2}\sum_{i=1}^n(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right] \\&=g(\theta,T(\mathbf x))h(\mathbf x)\qquad\forall\,(x_1,\cdots,x_n)\in\mathbb R^n\,,\forall\,\theta\in\mathbb R \end{align} 、ここでおよび。h(x)=1g(θ 、T(x))= 1(θ …

2
UMVUE
ましょう密度からのランダムサンプルである(X1,X2,…,Xn)(X1,X2,…,Xn)(X_1,X_2,\ldots,X_n)fθ(x)=θxθ−110&lt;x&lt;1,θ&gt;0fθ(x)=θxθ−110&lt;x&lt;1,θ&gt;0f_{\theta}(x)=\theta x^{\theta-1}\mathbf1_{00 のUMVUEを見つけようとしています。θ1+θθ1+θ\frac{\theta}{1+\theta} の結合密度は(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n) fθ(x1,⋯,xn)=θn(∏i=1nxi)θ−110&lt;x1,…,xn&lt;1=exp[(θ−1)∑i=1nlnxi+nlnθ+ln(10&lt;x1,…,xn&lt;1)],θ&gt;0fθ(x1,⋯,xn)=θn(∏i=1nxi)θ−110&lt;x1,…,xn&lt;1=exp⁡[(θ−1)∑i=1nln⁡xi+nln⁡θ+ln⁡(10&lt;x1,…,xn&lt;1)],θ&gt;0\begin{align} f_{\theta}(x_1,\cdots,x_n)&=\theta^n\left(\prod_{i=1}^n x_i\right)^{\theta-1}\mathbf1_{00 \end{align} 母集団pdfは1パラメータ指数ファミリに属しているため、これは完全な十分な統計がfθfθf_{\theta}θθ\thetaT(X1,…,Xn)=∑i=1nlnXiT(X1,…,Xn)=∑i=1nln⁡XiT(X_1,\ldots,X_n)=\sum_{i=1}^n\ln X_i 以降、最初の考えで、の私に与えるUMVUEによってレーマン・シェッフェの定理。この条件付き期待値が直接見つかるか、条件付き分布を見つける必要があるかどうかはわかりません 。E(X1)=θ1+θE(X1)=θ1+θE(X_1)=\frac{\theta}{1+\theta}E(X1∣T)E(X1∣T)E(X_1\mid T)θ1+θθ1+θ\frac{\theta}{1+\theta}X1∣∑ni=1lnXiX1∣∑i=1nln⁡XiX_1\mid \sum_{i=1}^n\ln X_i 一方、私は次のアプローチを検討しました: 我々は、つまり。Xi∼i.i.dBeta(θ,1)⟹−2θlnXi∼i.i.dχ22Xi∼i.i.dBeta(θ,1)⟹−2θln⁡Xi∼i.i.dχ22X_i\stackrel{\text{i.i.d}}{\sim}\text{Beta}(\theta,1)\implies -2\theta\ln X_i\stackrel{\text{i.i.d}}{\sim}\chi^2_2−2θT∼χ22n−2θT∼χ2n2-2\theta\, T\sim\chi^2_{2n} したがって、カイ2乗pdfを使用して計算された次の未加工モーメントはrrr−2θT−2θT-2\theta\,TE(−2θT)r=2rΓ(n+r)Γ(n),n+r&gt;0E(−2θT)r=2rΓ(n+r)Γ(n),n+r&gt;0E(-2\theta\,T)^r=2^r\frac{\Gamma\left(n+r\right)}{\Gamma\left(n\right)}\qquad ,\,n+r>0 したがって、異なる整数の選択に対して、異なる整数の累乗の不偏推定量(およびUMVUE)が得られるようです。たとえば、およびとのUMVUEを直接指定してください。rrrθθ\thetaE(−Tn)=1θE(−Tn)=1θE\left(-\frac{T}{n}\right)=\frac{1}{\theta}E(1−nT)=θE(1−nT)=θE\left(\frac{1-n}{T}\right)=\theta1θ1θ\frac{1}{\theta}θθ\theta さて、我々が持っている。θ&gt;1θ&gt;1\theta>1θ1+θ=(1+1θ)−1=1−1θ+1θ2−1θ3+⋯θ1+θ=(1+1θ)−1=1−1θ+1θ2−1θ3+⋯\frac{\theta}{1+\theta}=\left(1+\frac{1}{\theta}\right)^{-1}=1-\frac{1}{\theta}+\frac{1}{\theta^2}-\frac{1}{\theta^3}+\cdots などのUMVUEを確実に取得できます。したがって、これらのUMVUEを組み合わせると、の必要なUMVUEを取得できます。この方法は有効ですか、それとも最初の方法から続行しますか?UMVUEが存在する場合、UMVUEは一意であるため、どちらも同じ答えを返すはずです。1θ,1θ2,1θ31θ,1θ2,1θ3\frac{1}{\theta},\frac{1}{\theta^2},\frac{1}{\theta^3}θ1+θθ1+θ\frac{\theta}{1+\theta} 明確にするために、E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+⋯)=1−1θ+1θ2−1θ3+⋯E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+⋯)=1−1θ+1θ2−1θ3+⋯E\left(1+\frac{T}{n}+\frac{T^2}{n(n+1)}+\frac{T^3}{n(n+1)(n+2)}+\cdots\right)=1-\frac{1}{\theta}+\frac{1}{\theta^2}-\frac{1}{\theta^3}+\cdots つまり、E(∑r=0∞Trn(n+1)...(n+r−1))=θ1+θE(∑r=0∞Trn(n+1)...(n+r−1))=θ1+θE\left(\sum_{r=0}^\infty \frac{T^r}{n(n+1)...(n+r-1)}\right)=\frac{\theta}{1+\theta} 場合、必要なUMVUEがである可能性はありますか?∑r=0∞Trn(n+1)...(n+r−1)∑r=0∞Trn(n+1)...(n+r−1)\displaystyle\sum_{r=0}^\infty \frac{T^r}{n(n+1)...(n+r-1)}θ&gt;1θ&gt;1\theta>1 用、私はなるだろう、及びUMVUEが異なることになるので。0&lt;θ&lt;10&lt;θ&lt;10<\theta<1g(θ )= θ (1 + θ + θ2+ ⋯ )g(θ)=θ(1+θ+θ2+⋯)g(\theta)=\theta(1+\theta+\theta^2+\cdots) 最初のアプローチの条件付き期待値を直接見つけることができなかったと確信しており、、私は先に進みました条件付き分布を検索します。そのため、の結合密度が必要でした。E(X1| Σ LNバツ私= t )= E(X1| Π X私= et)E(X1∣∑ln⁡Xi=t)=E(X1∣∏Xi=et)E(X_1\mid \sum\ln …

2
推定量が確率変数と見なされるのはなぜですか?
見積もりと見積もりについての私の理解:見積もり:見積もりを計算するためのルール見積もり:見積もりに基づく一連のデータから計算された値 これらの2つの項の間で、確率変数を指摘するように求められた場合、その値はデータセットのサンプルに基づいてランダムに変化するため、推定は確率変数であると言えます。しかし、私が与えられた答えは、推定量は確率変数であり、推定値は確率変数ではないということです。何故ですか ?

2
参照リクエスト:働くデータサイエンティストのための古典的な統計
私は、回帰、その他の機械学習タイプのアルゴリズム、およびプログラミング(データ分析と一般的なソフトウェア開発の両方)において確かな経験を持つ、データサイエンティストとして働いています。私の仕事のほとんどは、予測精度(さまざまなビジネス上の制約の下での作業)のためのモデルの構築と、自分(および他の人)の仕事をサポートするデータパイプラインの構築に焦点を当てています。 私は統計学の正式な訓練を受けておらず、大学の教育は純粋な数学に焦点を当てています。そのため、古典的なトピックの多く、特に人気のあるさまざまな仮説検定と推論手法の学習に失敗しました。 私の経歴と経験レベルを持つ人に適した、これらのトピックへの参照はありますか?私は数学的な厳密さを扱い(そして理解し)、アルゴリズムの観点も楽しむことができます。私は、数学とプログラミングの両方(またはいずれか)に焦点を当てた、読者ガイド付きの演習を提供するリファレンスを好む傾向があります。

1
「野球のピタゴラスの定理」の背後にある実際の統計はありますか?
私はサーベルメトリクス、特にウェインウィンストンのMathleticsに関する本を読んでいます。最初の章では、チームの勝利率を予測するために使用できる数量を紹介しています: と彼は、勝利率を予測するために使用することができる途中シーズンを通じて、以下のことをほのめかしているようだ、より良いよりシーズン前半の勝率。彼は式を一般化し ここで、は得点と得点の比率です。次に彼は、3つのスポーツで勝ったゲームの割合を予測するのに最適な指数を見つけ、を見つけ Points Scored2Points Scored2+Points Against2≈% Games Won,Points Scored2Points Scored2+Points Against2≈% Games Won,\frac{\text{Points Scored}^2 }{\text{Points Scored}^2 + \text{Points Against}^2} \approx \text{% Games Won},RexpRexp+1,RexpRexp+1, \frac{R^{\text{exp}}}{R^{\text{exp}} + 1}, RRRBaseball: exp≈2,Baseball: exp≈2, \text{Baseball: exp} \approx 2 , Football: exp≈2.7,Football: exp≈2.7, \text{Football: exp} \approx 2.7, Basketball: exp≈14.Basketball: exp≈14. \text{Basketball: exp} \approx 14. しかし、獲得したゲームの%を、各ゲーム得点と対点で表すことができます。具体的には、ゲームウォンポイントが獲得ゲームの正確画分である、に対して点よりも大きい: …

3
「統計的に証明された」という概念
ニュースが物事について「統計的に証明された」と話したとき、彼らは統計の明確に定義された概念を正しく使用しているか、それを間違って使用しているか、または単にオキシモロンを使用していますか? 「統計的証明」は、実際には仮説を証明するために実行されるものではなく、数学的な証明ではなく、「統計的検定」であると想像します。
10 inference  proof 

4
現在の議論が統計的有意性に与える影響
過去数年間、さまざまな学者が科学的仮説検定の有害な問題を提起しており、これは「研究者の自由度」と呼ばれています。つまり、科学者は分析中に、p値&lt;5%の発見に偏る多くの選択肢を持っています。これらのあいまいな選択は、たとえば、どのケースが含まれるか、どのケースが外れ値として分類されるか、何かが現れるまで多数のモデル仕様を実行するか、nullの結果を公開しないかなどです(心理学におけるこの議論を引き起こした論文はここにあります、人気のスレートの記事を参照し、フォローアップの議論をアンドリュー・ゲルマンことで、ここで、そしてタイム誌にもこの話題に触れここに。) 最初に、1つの明確化の質問: タイム誌は書いて、 「0.8のべき乗とは、テストされた10の真の仮説のうち、その影響がデータに反映されないため、除外されるのは2つだけであることを意味します。」 これが、教科書で見つけたべき関数の定義にどのように当てはまるかはわかりません。これは、パラメーター関数としてnullを拒否する確率ですθθ\theta。異なるとθθ\theta我々は異なる力を持っているので、私はかなり上記の引用を理解していません。 第二に、いくつかの研究の影響: 私の政治学/経済学の分野では、学者は利用可能な国年データをすべて使い果たします。したがって、ここでサンプルをいじる必要はありませんか? 複数のテストを実行して1つのモデルのみを報告するという問題は、その分野の他の誰かがあなたの論文を再テストし、堅牢な結果が得られなかったとしてすぐにあなたを打ちのめすという事実によって修正できますか?これを予測して、私の分野の学者は、robustness check複数のモデル仕様が結果を変更しないことを示すセクションを含める可能性が高くなります。これで十分ですか? Andrew Gelmanらは、データに関係なく、実際には存在しない「パターン」を見つけて公開することが常に可能であると主張している。しかし、経験に基づく「パターン」は理論によってサポートされなければならないという事実を考えると、これは問題になりません。ある分野内のライバル理論は、どのキャンプがより多くの「パターン」を見つけることができるかを見つけるために議論/競争に参加するだけです。様々な場所で。パターンが本当に疑わしい場合、他のサンプル/設定に同様のパターンがない場合、背後にある理論はすぐに打ち消されます。これが科学の進歩ではないでしょうか? 無効な結果に対するジャーナルの現在の傾向が実際に繁栄すると仮定すると、すべての無効な結果と肯定的な結果を一緒に集計し、それらすべてがテストしようとしている理論を​​推測する方法はありますか?

1
コクランマンテルヘンツェル検定の解釈方法は?
Cで層化された2つの変数AとBの独立性をテストしています。AとBはバイナリ変数で、Cはカテゴリカル(5つの値)です。AとB(すべての階層を組み合わせたもの)に対するフィッシャーの正確検定を実行すると、次の結果が得られます。 ## (B) ## (A) FALSE TRUE ## FALSE 1841 85 ## TRUE 915 74 OR: 1.75 (1.25 -- 2.44), p = 0.0007 * ここで、ORはオッズ比(推定および95%信頼区間)であり*、p &lt;0.05であることを意味します。 各ストラタム(C)に対して同じテストを実行すると、次のようになります。 C=1, OR: 2.31 (0.78 -- 6.13), p = 0.0815 C=2, OR: 2.75 (1.21 -- 6.15), p = 0.0088 * C=3, OR: 0.94 (0.50 …

1
UMVUEを検索
ましょ、X1,X2,...,XnX1,X2,...,XnX_1, X_2, . . . , X_n pdfを持つiid確率変数 fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) ここで、θ&gt;0θ&gt;0\theta >0です。1のUMVUEを与える1θ1θ\frac{1}{\theta}とその分散の計算 私は、UMVUEを取得するためのそのような2つの方法について学びました。 クラマーラオ下限(CRLB) レーマンシェッフェテレオム 前者の2つを使ってこれを試みます。私はここで何が起こっているのか完全に理解していないことを認めなければなりません、そして私は私が試みた解決策を例の問題に基づいています。私はそれを持っているfX(x∣θ)fX(x∣θ)f_X(x\mid\theta)との完全なワンパラメータ指数分布族であります h (x )= I(0 、∞ )h(x)=I(0,∞)h(x)=I_{(0,\infty)}、c (θ )= θc(θ)=θc(\theta)=\theta、w (θ )= − (1 + θ )w(θ)=−(1+θ)w(\theta)=-(1+\theta)、t (x )= log (1 + x )t(x)=log(1+x)t(x)=\text{log}(1+x) 以来、w′(θ)=1w′(θ)=1w'(\theta)=1でゼロでΘΘ\Theta、CRLB結果が適用されます。我々は持っています log fX(x∣θ)=log(θ)−(1+θ)⋅log(1+x)log fX(x∣θ)=log(θ)−(1+θ)⋅log(1+x)\text{log }f_X(x\mid\theta)=\text{log}(\theta)-(1+\theta)\cdot\text{log}(1+x) ∂∂θlog fX(x∣θ)=1θ−log(1+x)∂∂θlog fX(x∣θ)=1θ−log(1+x)\frac{\partial}{\partial \theta}\text{log }f_X(x\mid\theta)=\frac{1}{\theta}-\text{log}(1+x) …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.