トレーニングの各反復を異なるシーケンスで連結したり実行したりすることは正しいことではありません。正しいアプローチにはいくつかの説明が必要です。
通常、EMアルゴリズムを使用してHMMをトレーニングします。。これはいくつかの反復で構成されます。各反復には、1つの「推定」ステップと1つの「最大化」ステップがあります。「最大化」ステップでは、各観測ベクトルxをモデルの状態sに合わせて、尤度測定値が最大化されるようにします。「推定」ステップでは、各状態sについて、(a)sにアライメントされたxベクトルの統計モデルのパラメーターと(b)状態遷移確率を推定します。次の反復では、更新された統計モデルなどを使用して最大化ステップが再び実行されます。プロセスは、設定された回数繰り返されるか、尤度尺度が大幅に上昇しなくなります(つまり、モデルが安定したソリューションに収束します)。最後に、(少なくとも音声認識では)HMMには通常、指定された「開始」があります
したがって、複数のトレーニングシーケンスがある場合は、推定ステップで各シーケンスを実行して、初期観測ベクトルが初期状態と一致するようにする必要があります。そのようにして、その初期状態の統計は、すべての観測シーケンスの最初の観測から収集され、一般に、観測ベクトルは各シーケンス全体で最も可能性の高い状態に合わせられます。すべてのシーケンスがトレーニングに提供された後にのみ、最大化ステップ(および将来の反復)を実行します。次の反復では、まったく同じことを行います。
各観測シーケンスの開始を初期状態に揃えることにより、シーケンスの連結と、1つのシーケンスの終了と次のシーケンスの開始との間の遷移を誤ってモデリングする問題を回避できます。また、各反復ですべてのシーケンスを使用することで、反復ごとに異なるシーケンスを提供することを避けます。これはレスポンダーが指摘したように、収束を保証しません。