タグ付けされた質問 「theory」

3
Python用のすぐに使える優れた言語モデルはありますか?
私はアプリケーションのプロトタイプを作成していますが、生成されたいくつかの文の複雑さを計算するための言語モデルが必要です。 すぐに使用できるPythonのトレーニング済み言語モデルはありますか?のような単純なもの model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 < p2 一部のフレームワークを確認しましたが、必要なものが見つかりませんでした。私は次のようなものを使用できることを知っています: from nltk.model.ngram import NgramModel lm = NgramModel(3, brown.words(categories='news')) これはブラウンコーパスの優れたチューリング確率分布を使用していますが、1bワードデータセットなどの大きなデータセットで巧妙に作成されたモデルを探していました。一般的なドメイン(ニュースだけでなく)の結果を実際に信頼できるもの
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 


1
テンソル形式で「自然に」逆伝播方程式を導出する
画像は、フィードフォワードネットワークのどこかにある典型的なレイヤーを示しています。 a(k)iai(k)a_i^{(k)} のアクティベーション値です ithithi^{th} ニューロン kトンの時間kthk^{th} 層。 W(k )私はjWij(k)W_{ij}^{(k)} 接続している重量は 私トンの時間私thi^{th} ニューロン kトンの時間kthk^{th} レイヤーを jトンの時間jthj^{th} ニューロン (k + 1)トンの時間(k+1)th(k+1)^{th} 層。 z(k+ 1 )jzj(k+1)z_j^{(k+1)} は、 jトンの時間jthj^{th} ニューロン (k + 1)トンの時間(k+1)th(k+1)^{th}層。ロジスティック関数で使用される場合、これは「ロジット」と呼ばれることがあります。 フィードフォワードの方程式は次のとおりです。 z(k + 1 )j=Σ私W(k )私はja(k )私zj(k+1)=Σ私W私j(k)a私(k)z_j^{(k+1)} = \sum_i W_{ij}^{(k)}a_i^{(k)} a(k + 1 )j= f(z(k + 1 )j)aj(k+1)=f(zj(k+1))a_j^{(k+1)} = f(z_j^{(k+1)}) 簡単にするために、バイアスは1のダミーアクティベーションとして含まれ、暗黙的に反復で使用されます。 …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.