回答:
尤度関数は、モデルパラメーターθの関数としてのイベントE(データセットx)の確率として定義されます。
したがって、観測値の独立性の仮定はありません。古典的なアプローチでは、パラメーターはランダム変数ではないため、パラメーターの独立性の定義はありません。関連する概念には、識別可能性、パラメーターの直交性、および最尤推定量(ランダム変数)の独立性があります。
いくつかの例、
(1)。個別のケース。と(独立した)別個の観察の試料であるP(観察 XのJ ; θ )> 0、次いで
特に、 で、知られている、我々はそれを持っています
(2)。連続近似。ましょう連続確率変数からのサンプルであるX分布、Fおよび密度F測定エラーと、ε、これは、あなたがセットの観察(X J - ε 、X j + ϵ )。それから
が小さい場合、これは(平均値定理を使用して)近似できます。
通常のケースの例については、こちらをご覧ください。
(3)。従属およびマルコフモデル。仮定しおそらく依存観察のセットであるとlet fが共同密度であるX次いで、
さらに マルコフ特性が満たされる場合、
これも見てください。
(+1) Very good question.
マイナーなものは、MLEの略最大あなただけの可能性を最大化することを意味し、尤推定値(倍数ではありません)。これは、IIDサンプリングによって尤度を生成する必要があることを指定していません。
サンプリングの依存関係を統計モデルに記述できる場合、それに応じて尤度を記述し、通常どおり最大化します。
依存性を仮定しない場合に言及する価値がある1つのケースは、多変量ガウスサンプリングのケースです(たとえば、時系列分析)。2つのガウス変数間の依存関係は、共分散項によってモデル化できます。共分散項は、尤度に組み込まれません。
簡単な例を示すために、サイズのサンプルを描くと仮定します 同じ平均と分散を持つ相関ガウス変数から。あなたは可能性を次のように書くでしょう
where is
This is not the product of the individual likelihoods. Still, you would maximize this with parameters to get their MLE.
Of course, Gaussian ARMA models possess a likelihood, as their covariance function can be derived explicitly. This is basically an extension of gui11ame's answer to more than 2 observations. Minimal googling produces papers like this one where the likelihood is given in the general form.
Another, to an extent, more intriguing, class of examples is given by multilevel random effect models. If you have data of the form