プロのデータサイエンティストとしての私の個人的な経験では、一般的にそうです。
それは私がほとんどの場合観察するものだからです。なぜこれがこのように発生するのかを質問する場合、いくつかの理由があります。
- 今日では、洗練されたアンサンブル法やニューラルネットワークなど、多くの従来のMLアルゴリズムが「既製」で利用可能です。確率論的手法では、StanなどのDSLで記述された、または直接汎用プログラミング言語で記述されたオーダーメイドのソリューションが依然として必要です。
- 今日データサイエンスに入る多くの人々は、工学および自然科学のバックグラウンドから来ています。彼らは、強力な数学および「アルゴリズム」のスキルを持っていますが、確率モデリングに関する経験や直感があまりありません。それは彼らのレーダーではありません、そして彼らはそれらを実装するために必要な方法とソフトウェアにそれほど慣れていません。
- 確率モデルから「ハード」予測を行うには、手を振るか、正式な決定理論を使用します。AIの研究者と高額な統計コンサルタントはこれを知っており、採用しています。しかし、ランクアンドファイルデータサイエンティストにとって、上司に相談して、分布と確率の観点から話を始めるのはそれほど簡単ではありません。ビジネス(またはあなたが構築している自動化システム)には、いまいましい答えが必要です。確率やものについて不平を言うのをやめれば、人生はずっと簡単になります。その場合、そもそもそれらを気にしない方がよいでしょう。
- 確率論的モデリングは、多くの場合非常に計算集約的であり、特に閉じた形のソリューションが稀な贅沢であるベイジアンモデリングであり、特に「大きな」データセットで二重になります。1,000万行のデータセットでXGBoostを実行することをためらわないでしょう。1,000万行のデータセットでStanモデルを実行することさえ考えていません。
上記のすべての欠点を考えると、データサイエンティストまたはデータサイエンティストの小さなチームは、確率論的ではない機械学習手法を使用してはるかに迅速に反復し、「十分な」結果を得ることができます。
編集:コメントで指摘されているように、#1と#2は両方とも、確率的プログラミング手法が実際の問題でノックアウトパフォーマンスを発揮することがまだ示されていないためである可能性があります。CNNは既存の技術を吹き飛ばしたため、人気が出ました。
編集2:時系列モデリングでは確率論が人気を博しているようで、ディープラーニングは他のドメインほど効果的ではないようです。