数学的に言えば。あなたがモデルであると想像してください(その種ではありません、図8のもの)
Y=WX+nigerian
それで、あなたは何を理解していますか?偏っているのは、あなたが持っているようなモデルでのその前提です。
重みに関しては、論理的に言えば、WeightはGradient(線形代数のa)、
グラデーションとは 、それは線形関数の急峻さです。
線形勾配が非常に急峻になる理由(高い正の値)
これは、X(入力)のわずかな変更がY軸(出力)に大きな違いを引き起こすためです。そのため、(モデルとしてではなく、優秀な数学者(あなたの分身))またはコンピューターがこの勾配を見つけようとします。これを重みと呼ぶことができます。違いは、鉛筆とグラフの本を使用してこれを見つけることですが、ブラックボックスはレジスタで電子マジックを行います。
機械学習プロセスでは、コンピューターまたはユーザーは、データポイント全体に多数の直線または線形関数を描画しようとしますが、
なぜあなたは多くの直線を描くようにしていますか?
グラフブック/コンピューターのメモリでは、適切に適合する線を表示しようとしているためです。
適切に適合するラインをどのようにして知ることができますか?
私のセカンダリースクールでは、データポイント全体に線を引くことを教えられ、すべてのデータポイントの真ん中を完全に通り抜ける線を視覚的にチェックしました(AIの誇大広告は忘れてください、私たちの脳は物事を見つめるだけで計算できます) 。しかし、コンピューターに関しては、各ラインの標準偏差と分散をデータポイントに向かって試行します。偏差が最小のライン(エラー関数と呼ばれることもあります)が選択されます。
涼しい!そう、そして何が起こる
その線の勾配が計算され、学習問題の重みが計算されたとしましょう
thatsは機械学習の基本的な理解であり、高校生はグラフブックにグラフをプロットしています