両方の方法の長所と短所は何ですか?
両方の方法の長所と短所は何ですか?
回答:
最尤推定は、次のように定義される尤度関数を最大化することにより、統計モデルのパラメーターを推定する一般的なアプローチです。
つまり、パラメータθのある値を与えられたデータを取得する確率。与えられた問題の尤度関数を知ることで、持っているデータを取得する確率を最大にするようなθを探すことができます。既知の推定量がある場合があります。たとえば、算術平均は正規分布のμパラメーターのMLE推定量ですが、他の場合では、最適化アルゴリズムの使用を含むさまざまな方法を使用できます。MLアプローチでは、θの最適値を見つける方法はわかりません-単純に推測を行い、尤度を使用してどちらの推測が優れているかを比較できます-の1つの値を比較する方法がわかりますは他の「より可能性が高い」。
勾配降下法は最適化アルゴリズムです。このアルゴリズムを使用して、多くの異なる関数の最小値(または最大値、勾配勾配と呼ばれます)を見つけることができます。アルゴリズムは、最小化する関数が何であるかを実際に気にしません。要求されたものだけを実行します。そのため、最適化アルゴリズムを使用する場合、目的のパラメーターの1つの値が他のパラメーターよりも「優れている」かどうかを何らかの方法で知る必要があります。アルゴリズムに最小限の機能を提供する必要があり、アルゴリズムはその最小値を見つけることに対処します。
さまざまな方法を使用して最尤推定値を取得できますが、最適化アルゴリズムを使用することもその1つです。一方、勾配降下法は、尤度関数以外の関数を最大化するためにも使用できます。
通常、尤度関数を取得すると、方程式d fを解きます
の最大値または最小値を与えることができるの値を取得できます!
f
しかし、ロジスティック回帰の尤度関数は、この方法による閉じた形式のソリューションではありません。そのため、などの他の方法を使用する必要がありますgradient descent
。
likelihood function
+ gradient descent
(尤度関数の解を取得する)を使用することは、依然としてMLEを実行する方法です。
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
Machine Learning:a Probabilistic Perspective、Kevin Murphyからこの文を見ることができます。