[編集:2016年3月:投票をありがとう!しかし、本当に、これは私がベースのソリューションを考えて、最善の答えではないwithColumn
、withColumnRenamed
とcast
msemelmanにより前方に置く、マーティンセンヌなどが]簡単かつきれいです。
あなたのアプローチは大丈夫だと思いますDataFrame
。Sparkは行の(不変の)RDDであることを思い出してください。そのため、列を実際に置き換えるのではなくDataFrame
、新しいスキーマで毎回新しいものを作成するだけです。
次のスキーマを持つ元のdfがあると仮定します。
scala> df.printSchema
root
|-- Year: string (nullable = true)
|-- Month: string (nullable = true)
|-- DayofMonth: string (nullable = true)
|-- DayOfWeek: string (nullable = true)
|-- DepDelay: string (nullable = true)
|-- Distance: string (nullable = true)
|-- CRSDepTime: string (nullable = true)
また、いくつかのUDFは1つまたは複数の列で定義されています。
import org.apache.spark.sql.functions._
val toInt = udf[Int, String]( _.toInt)
val toDouble = udf[Double, String]( _.toDouble)
val toHour = udf((t: String) => "%04d".format(t.toInt).take(2).toInt )
val days_since_nearest_holidays = udf(
(year:String, month:String, dayOfMonth:String) => year.toInt + 27 + month.toInt-12
)
列の型を変更したり、別の列から新しいDataFrameを作成したりすることも、次のように書くことができます。
val featureDf = df
.withColumn("departureDelay", toDouble(df("DepDelay")))
.withColumn("departureHour", toHour(df("CRSDepTime")))
.withColumn("dayOfWeek", toInt(df("DayOfWeek")))
.withColumn("dayOfMonth", toInt(df("DayofMonth")))
.withColumn("month", toInt(df("Month")))
.withColumn("distance", toDouble(df("Distance")))
.withColumn("nearestHoliday", days_since_nearest_holidays(
df("Year"), df("Month"), df("DayofMonth"))
)
.select("departureDelay", "departureHour", "dayOfWeek", "dayOfMonth",
"month", "distance", "nearestHoliday")
これにより、
scala> df.printSchema
root
|-- departureDelay: double (nullable = true)
|-- departureHour: integer (nullable = true)
|-- dayOfWeek: integer (nullable = true)
|-- dayOfMonth: integer (nullable = true)
|-- month: integer (nullable = true)
|-- distance: double (nullable = true)
|-- nearestHoliday: integer (nullable = true)
これはあなた自身のソリューションにかなり近いです。単純に、型の変更とその他の変換を別々udf val
のとして維持することで、コードが読みやすくなり、再利用可能になります。