CrossValidatedで既存の回答を読みましたが(オンラインで他の場所でも)、探しているものが見つかりませんが、見逃した場合は既存のソースを参照してください。
N = 1000レコードのデータセットがあるとします。各レコードは手動でサンプリングし、「有効」または「無効」(または真/偽、右/間違っなど)としてラベル付けできます。
データセット内のすべてのレコードが有効であるという一定のレベルの信頼を実現したいと考えています。レコードをサンプリングするときに、無効なレコードが1つ見つかった場合は、戻ってデータセットの作成方法を修正し、その問題と同様の問題を修正します。
したがって、無効なものを特定し、データセットを修正して再作成した後、有効なレコードのみを含むサンプリングを行います。すべてのレコードが有効であることを(たとえば)99%または95%確認したい場合、サンプルはどのくらいの大きさでなければなりませんか?(理想的にはNの関数として。)
私は超幾何テスト(http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test)をいじってみました-そのコンテキストではkが何であるか知りたいのですが、Kの固定値を持っていません。むしろ、KがNに等しくなるようにkを選択したいのですが、K = Nを設定すると、明らかに1の確率になります。ベイジアンアプローチを使用する必要があるかどうかも疑問に思っていますが、ベイジアン統計を十分に理解していません。