CSVファイルからにデータを読み込みdata.table
、1つの列のテキストをいくつかの新しい列に分割するスクリプトがあります。私は現在、lapply
andstrsplit
関数を使用してこれを行っています。次に例を示します。
library("data.table")
df = data.table(PREFIX = c("A_B","A_C","A_D","B_A","B_C","B_D"),
VALUE = 1:6)
dt = as.data.table(df)
# split PREFIX into new columns
dt$PX = as.character(lapply(strsplit(as.character(dt$PREFIX), split="_"), "[", 1))
dt$PY = as.character(lapply(strsplit(as.character(dt$PREFIX), split="_"), "[", 2))
dt
# PREFIX VALUE PX PY
# 1: A_B 1 A B
# 2: A_C 2 A C
# 3: A_D 3 A D
# 4: B_A 4 B A
# 5: B_C 5 B C
# 6: B_D 6 B D
上記の例では、列PREFIX
は2つの新しい列PX
とPY
「_」文字に分割されています。
これは問題なく機能しますが、を使用してこれを行うためのより良い(より効率的な)方法があるかどうか疑問に思いましたdata.table
。私の実際のデータセットには1,000万以上の行があるため、時間/メモリの効率が非常に重要になります。
更新:
@Frankの提案に従って、より大きなテストケースを作成し、提案されたコマンドを使用しstringr::str_split_fixed
ましたが、元の方法よりもはるかに時間がかかります。
library("data.table")
library("stringr")
system.time ({
df = data.table(PREFIX = rep(c("A_B","A_C","A_D","B_A","B_C","B_D"), 1000000),
VALUE = rep(1:6, 1000000))
dt = data.table(df)
})
# user system elapsed
# 0.682 0.075 0.758
system.time({ dt[, c("PX","PY") := data.table(str_split_fixed(PREFIX,"_",2))] })
# user system elapsed
# 738.283 3.103 741.674
rm(dt)
system.time ( {
df = data.table(PREFIX = rep(c("A_B","A_C","A_D","B_A","B_C","B_D"), 1000000),
VALUE = rep(1:6, 1000000) )
dt = as.data.table(df)
})
# user system elapsed
# 0.123 0.000 0.123
# split PREFIX into new columns
system.time ({
dt$PX = as.character(lapply(strsplit(as.character(dt$PREFIX), split="_"), "[", 1))
dt$PY = as.character(lapply(strsplit(as.character(dt$PREFIX), split="_"), "[", 2))
})
# user system elapsed
# 33.185 0.000 33.191
したがって、このstr_split_fixed
方法には約20倍の時間がかかります。
stringr
パッケージを使用する場合、これは次のコマンドですstr_split_fixed(PREFIX,"_",2)
。スピードアップをテストしていないので答えていません...または、1つのステップで:dt[,c("PX","PY"):=data.table(str_split_fixed(PREFIX,"_",2))]