まったく同じことを行う2つのスクリプトがあります。
しかし、1つのスクリプトは82.7 KBの重みを持つ3つのRDataファイルを作成し、もう1つのスクリプトは120 KBの重みを持つ3つのRDataファイルを作成します。
最初のものはパラレルなしです:
library("plyr")
ddply(.data = iris,
.variables = "Species",
##.parallel=TRUE,##Without parallel
.fun = function(SpeciesData){
#Create Simple Model -------------------------------------------------------------
Model <- lm(formula = "Sepal.Length~Sepal.Width+Petal.Length+Petal.Width",data = SpeciesData)
#Save The Model -------------------------------------------------------------
save(Model,
compress = FALSE,
file = gsub(x = "Species.RData",
pattern = "Species",
replacement = unique(SpeciesData$Species)))
})
2つ目はパラレルを使用する場合です。
library("plyr")
doSNOW::registerDoSNOW(cl<-snow::makeCluster(3))
ddply(.data = iris,
.variables = "Species",
.parallel=TRUE,##With parallel
.fun = function(SpeciesData){
#Create Simple Model -------------------------------------------------------------
Model <- lm(formula = "Sepal.Length~Sepal.Width+Petal.Length+Petal.Width",data = SpeciesData)
#Save The Model -------------------------------------------------------------
save(Model,
compress = FALSE,
file = gsub(x = "Species.RData",
pattern = "Species",
replacement = unique(SpeciesData$Species)))
})
snow::stopCluster(cl)
2番目のスクリプトは、重みが42%多いファイルを作成します。
ファイルサイズを自動的に増加させずにファイルを並行して保存するにはどうすればよいですか?
r lang lock file
あり、5秒後に目的のパッケージcran.r-project.org/web/packages/filelock/filelock.pdf