SASのようなものは逐次分析を行うのに対し、Rはすべてのデータをメモリにロードすることを考えると、Rは大きなデータセットの分析には特に役立ちません。とはいえ、ユーザーがRでより効率的に大規模データ分析(統計分析)を実行できるようにするbigmemoryのようなパッケージがあります。
私は、すべての理論的な情報とは別に、エンタープライズ環境で大規模なデータセットを分析するためにRを使用したり使用したりしている人や、発生する可能性のある典型的な問題を知りたいと思っていました。大きなデータセットとは、サイズが最大200 GBのデータセットを指します。また、そのようなユースケースでSASからRに移行する実際の例についての考えは参考になります。
ff
およびなど、メモリを増やすためのパッケージがいくつかありますbigmemory
。@Glen_b、新しいR(64ビットマシンを使用)は、SAS(可能なデータセットサイズの点で)に匹敵すると思いますか?