22
PythonでSoftmax関数を実装する方法
Udacityの深い学習クラス、Y_Iのソフトマックスは、単に全体のYベクトルの指数の合計で割った指数です。 どこS(y_i)のソフトマックス関数であるy_iとe指数関数的であるとjnoです。入力ベクトルYの列の数。 私は以下を試しました: import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" e_x = np.exp(x - np.max(x)) return e_x / e_x.sum() scores = [3.0, 1.0, 0.2] print(softmax(scores)) これは次を返します: [ 0.8360188 0.11314284 0.05083836] しかし、提案された解決策は: def softmax(x): """Compute softmax values for each sets of scores …