探索的データ分析に取り組み、アルゴリズムを開発していると、視覚化、コードの記述、小さなデータセットの実行、繰り返しのサイクルにほとんどの時間が費やされていることがわかります。私が持っているデータは、コンピュータビジョン/センサーフュージョンタイプのものである傾向があり、アルゴリズムは視覚に負荷がかかり(オブジェクトの検出や追跡など)、既製のアルゴリズムはこのコンテキストでは機能しません。これには多くの反復が必要であることがわかります(たとえば、アルゴリズムのタイプをダイヤルしたり、アルゴリズムのパラメーターを調整したり、視覚化を正しくしたりする)ため、小さなデータセットでも実行時間が非常に長くなるため、すべて一緒に時間がかかります。
アルゴリズム開発自体をどのように高速化し、スケーラブルにすることができますか?
特定の課題:
反復回数を減らすにはどうすればよいですか?(特に、アルゴリズムの種類はもちろん、その詳細は別として、異なるバージョンを試してその動作を調べることなく簡単に予測できるとは思えない場合)
開発中に大きなデータセットで実行する方法は?(多くの場合、小さなデータセットから大きなデータセットへの移行は、多くの新しい動作と新しい問題が発生した場合です)
アルゴリズムパラメータをより速く調整するにはどうすればよいですか?
機械学習型ツールをアルゴリズム開発自体に適用する方法は?(たとえば、アルゴリズムを手で書く代わりに、いくつかの簡単な構成要素を書き、問題から学んだ方法でそれらを組み合わせてください、など)