重みが描画よりもゆっくり変化する場合は、C ++ 11 discrete_distribution
が最も簡単です。
#include <random>
#include <vector>
std::vector<double> weights{90,56,4};
std::discrete_distribution<int> dist(std::begin(weights), std::end(weights));
std::mt19937 gen;
gen.seed(time(0));//if you want different results from different runs
int N = 100000;
std::vector<int> samples(N);
for(auto & i: samples)
i = dist(gen);
//do something with your samples...
ただし、c ++ 11 discrete_distribution
は初期化時にすべての累積合計を計算することに注意してください。通常は、1回のO(N)コストでサンプリング時間が短縮されるため、これが必要です。しかし、急速に変化するディストリビューションの場合、計算(およびメモリ)に多大なコストがかかります。たとえば、重みが存在するアイテムの数を表し、1つを描画するたびにそれを削除する場合、おそらくカスタムアルゴリズムが必要になります。
ウィルの回答https://stackoverflow.com/a/1761646/837451はこのオーバーヘッドを回避しますが、バイナリ検索を使用できないため、C ++ 11よりも描画に時間がかかります。
それがこれを行うことを確認するには、関連する行を見ることができます(/usr/include/c++/5/bits/random.tcc
私のUbuntu 16.04 + GCC 5.3インストール上):
template<typename _IntType>
void
discrete_distribution<_IntType>::param_type::
_M_initialize()
{
if (_M_prob.size() < 2)
{
_M_prob.clear();
return;
}
const double __sum = std::accumulate(_M_prob.begin(),
_M_prob.end(), 0.0);
// Now normalize the probabilites.
__detail::__normalize(_M_prob.begin(), _M_prob.end(), _M_prob.begin(),
__sum);
// Accumulate partial sums.
_M_cp.reserve(_M_prob.size());
std::partial_sum(_M_prob.begin(), _M_prob.end(),
std::back_inserter(_M_cp));
// Make sure the last cumulative probability is one.
_M_cp[_M_cp.size() - 1] = 1.0;
}