統計学のバックグラウンドを持たない聴衆に対して、ロジスティック回帰とニューラルネットワークの違いをどのように説明しますか?
統計学のバックグラウンドを持たない聴衆に対して、ロジスティック回帰とニューラルネットワークの違いをどのように説明しますか?
回答:
私はあなたがかつて何であったかを考えていると思いますが、おそらくニューラルネットワークについての質問では「多層パーセプトロン」と呼ばれています。もしそうなら、説明変数の関数として決定境界の形についての柔軟性の観点から全体を説明します。特に、このオーディエンスについては、リンク関数/対数オッズなどについては言及しません。イベントの確率がいくつかの観測に基づいて予測されているという考えにだけ従ってください。
可能なシーケンスは次のとおりです。
このアプローチの利点は、正確なアイデアを得るために数学的な詳細を実際に取得する必要がないことです。実際、彼らは類似点と相違点を理解するためにロジスティック回帰またはニューラルネットワークを既に理解する必要はありません。
このアプローチの欠点は、多くの写真を作成する必要があり、代数に落ちて物事を説明する誘惑に強く抵抗することです。
より簡単な要約:
ロジスティック回帰:ニューラルネットワークの最も単純な形式であり、直線である決定境界をもたらします。
ニューラルネットワーク:ロジスティック回帰と、より複雑な決定境界を生成できるその他の分類子を含むスーパーセット。
(注:積分カーネルの支援なしで、「単純な」ロジスティック回帰を参照しています)
(参照:Andrew Ngのdeeplearning.aiコース、「ニューラルネットワークとしてのロジスティック回帰」および「1つの隠れ層を含む平面データ分類」)
私は質問を文字通りに受け止めます:統計のバックグラウンドのない人。そして、その人に統計の背景を提供しようとはしません。たとえば、会社のCEOなどにその違いを説明する必要があるとします。
ロジスティック回帰は、カテゴリ変数を他の変数に関してモデル化するためのツールです。各「他の」変数の変更が、最初の変数の異なる結果のオッズにどのように影響するかを調べる方法を提供します。出力の解釈はかなり簡単です。
ニューラルネットワークは、人間が物事を学習する方法にあいまいに似た方法で、コンピューターが例から学習しようとする一連の方法です。その結果、優れた予測子となるモデルが生成される場合がありますが、通常はロジスティック回帰からのモデルよりもはるかに不透明です。
ニューラルネットワーク(ロジスティックアクティベーション関数を使用)は、ロジット関数の重み付き平均と見なすことができ、重み自体を推定できると教えられました。多数のロジットを選択することにより、あらゆる機能形態に適合できます。Econometric Senseのブログ投稿には、いくつかのグラフィカルな直感があります。
他の答えは素晴らしいです。ロジスティック回帰とマルチクラスロジスティック回帰(別名maxent、多項ロジスティック回帰、softmax回帰、最大エントロピー分類子)をニューラルネットワークの特別なアーキテクチャとして考えることができることを示す写真を追加します。
ミシガン州立大学のセバスチャン・ラシュカからKDnuggetsについて:
マルチクラスロジスティック回帰のさらにいくつかの図:
http://www.deeplearningbook.org/第1章から取られた同様の図解:
TensorFlowチュートリアルからもう 1つ:
聴衆が理解している複雑ではあるが具体的な問題の例を使用します。解釈が訓練されていないが、特定の意味を持つ隠れノードを使用します。
線形回帰は、h4に白い騎士を置くことがどれだけ良いかを決定します。それがまったく良いことは明らかではないかもしれませんが、h4にある場合はキャプチャされていないため、おそらく他の考慮事項よりも重要です。おそらく、線形回帰はピースの大まかな値を回復するので、ピースをボードの中心に向け、ボードの相手側にピースを置く方が良いでしょう。線形回帰では、相手のキングがa1にいる場合、b2のクイーンが突然価値が高くなるなど、組み合わせを評価できません。
ニューラルネットワークには、「マテリアルアドバンテージ」、「ブラックキングの安全性」、「センターの制御」、「dファイルの両方のルーク」、「孤立したクイーンルークポーン」、「ビショップ」などの概念の隠れノードがあります。モビリティ。」これらの一部はボード入力からのみ推定できますが、2番目以降の非表示層にある必要があるものもあります。ニューラルネットワークは、これらを位置の最終評価への入力として使用できます。これらの概念は、専門家が位置を評価するのに役立ちます。そのため、ニューラルネットワークは線形回帰よりも正確な評価が可能でなければなりません。ただし、ニューラルネットワークを作成するには、その構造を選択する必要があり、トレーニングするパラメーターがさらに多いため、より多くの作業が必要です。