A. LiawによるRのrandomForestパッケージは、c-code(translated)と残りのFortranコードとRラッパーコードの混合である元のコードの移植版です。ブレークポイントおよびmtry変数全体の全体的な最適な分割を決定するために、コードはgini-gainと同様のスコアリング関数を使用します。
GiniGain(N,X)=Gini(N)−|N1||N|Gini(N1)−|N2||N|Gini(N2)
ここで、与えられた機能であり、Nは、分割がなされるべきでノードであり、N 1及びN 2は、分割によって作成された2つのつの子ノードであるN。| 。| ノード内の要素の数です。XNN1N2N|.|
そして、、ここでKはノード内のカテゴリの数Gini(N)=1−∑Kk=1p2kK
ただし、適用されるスコアリング関数はまったく同じではなく、より効率的な同等の計算バージョンです。および| N | 比較されたすべての分割に対して定数であるため、省略されます。Gini(N)
また、node(1)の有病率の合計が|として計算される場合、部品を検査します|N2||N|Gini(N2)∝|N2|Gini(N2)=|N2|(1−∑Kk=1p2k)=|N2|∑nclass22,k|N2|2
ここで、はドーターノード1のターゲットクラスkのクラスカウントです。N 2 | は、分母と分母の両方に配置されます。nclass1,k|N2|
些細な一定の取り外し最良の分割の決定は、ノードが二乗クラスの有病率の加重和のサイズを最大化することであるような式から...1−
|N1|∑Kk=1p21,k+|N2|∑Kk=1p22,k=|N1|∑Kk=1nclass21,k|N1|2+|N2|∑Kk=1nclass22,k|N2|2
=∑Kk=1nclass22,k1|N1|−1+∑Kk=1nclass22,k1|N1|−2
=nominator1/denominator1+nominator2/denominator2
The implementation also allows for classwise up/down weighting of samples. Also very important when the implementation update this modified gini-gain, moving a single sample from one node to the other is very efficient. The sample can be substracted from nominators/denominators of one node and added to the others.
I wrote a prototype-RF some months ago, ignorantly recomputing from scratch gini-gain for every break-point and that was slower :)
If several splits scores are best, a random winner is picked.
This answer was based on inspecting source file "randomForest.x.x.tar.gz/src/classTree.c" line 209-250