回答:
多くの場合、Newton-Raphsonアルゴリズムを使用できます。私はpSLAに精通していませんが、潜在クラスモデルにNewton-Raphsonアルゴリズムを使用することはかなり一般的です。Newton-Raphsonアルゴリズムは、EMよりも初期値が低いため、もう少し問題があります。そのため、1つの戦略は、最初にEMを数回(20回)使用し、次にNewton-Raphsonアルゴリズムに切り替えることです。私が多くの成功を収めたアルゴリズムの1つは、Zhu、Ciyou、Richard H. Byrd、Peihuang Lu、およびJorge Nocedal(1997)、「Algorithm 778:L-BFGS-B:Fortranサブルーチンfor大規模なバインド-制約付き最適化」、ACM Transactions on Mathematical Software(TOMS)archive、23(4)、550-60。
EMアルゴリズムに非常によく似ているのが、MMアルゴリズムです。MM アルゴリズムは、目的関数をメジャー化またはマイナー化する際にデータが欠落するのではなく、通常は凸性を利用します。ただし、MMアルゴリズムが特定の問題に適用可能かどうかを確認する必要があります。
LDAの場合、「オンラインLDA」は、標準のEM(http://www.cs.princeton.edu/~blei/papers/HoffmanBleiBach2010b.pdf)のようなバッチ方式よりも高速な代替手段です。
David Bleiは彼のページでソフトウェアを提供しています:http ://www.cs.princeton.edu/~blei/topicmodeling.html
これまでの回答で言及されていない別の選択肢は、変分近似です。これらのアルゴリズムは、すべての場合に正確なEMアルゴリズムではありませんが、場合によっては、EMアルゴリズムがベイジアン平均場変分アルゴリズムのケースを制限しています。制限は、ハイパーパラメーターの制限の場合に関係し、制限値を選択する(場合によっては)と、EMアルゴリズムが得られます。
いずれの場合(EM、VB、またはMMアルゴリズム)でも、速度を上げる2つの一般的な方法があります。
(2)EM(または他のタイプ)アルゴリズムの収束率を改善します。JohnRosはコメントでAitkenアクセラレーションについて言及しました。これは数値解析の世界のものですが、McLachlanとKrishnanによるEMブックで説明されています。
私が逃した他の人がいるかもしれませんが、これらは2つの大きなもののようです。