11
非常に大きなテーブルをデータフレームとしてすばやく読み取る
Rのデータフレームとしてロードしたい非常に大きなテーブル(3000万行)があります。 read.table()便利な機能がたくさんありますが、実装には低速化するロジックがたくさんあるようです。私の場合、列のタイプが事前にわかっており、テーブルに列ヘッダーや行名が含まれておらず、心配する必要のある病理学的文字が含まれていないと想定しています。 を使用してリストとしてテーブルを読み取るのはscan()非常に高速である可能性があることを知っています。例: datalist <- scan('myfile',sep='\t',list(url='',popularity=0,mintime=0,maxtime=0))) しかし、これをデータフレームに変換しようとする私の試みの一部は、上記のパフォーマンスを6分の1に低下させるように見えます。 df <- as.data.frame(scan('myfile',sep='\t',list(url='',popularity=0,mintime=0,maxtime=0)))) これを行うより良い方法はありますか?または、問題へのまったく異なるアプローチ?