pysparkのデータフレーム列名を変更するにはどうすればよいですか?


201

私はパンダの背景から来ており、CSVファイルからデータフレームにデータを読み取り、次に単純なコマンドを使用して列名を便利なものに変更することに慣れています:

df.columns = new_column_name_list

ただし、sqlContextを使用して作成されたpysparkデータフレームでは同じことが機能しません。これを簡単に行うために私が理解できる唯一の解決策は次のとおりです。

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

これは基本的に変数を2回定義し、最初にスキーマを推論してから列名を変更し、更新されたスキーマでデータフレームを再度ロードします。

私たちがパンダのようにこれを行うためのより良い、より効率的な方法はありますか?

私のスパークバージョンは1.5.0です

回答:


334

それには多くの方法があります。

  • オプション1. selectExprを使用する

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
  • オプション2. withColumnRenamedを使用すると、このメソッドで同じ列を「上書き」できることに注意してください。python3の場合、交換してくださいxrangerange

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
  • オプション3. 別名を使用する 。Scalaでは、としても使用できます。

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
  • オプション4. sqlContext.sqlを使用します。これによりDataFrames、テーブルとして登録されたSQLクエリを使用できます。

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+

1
私はforループ+ withColumnRenamedでそれをやったが、あなたのreduceオプションはとてもいい:)
フェリペ・ジェラール

1
まあ、DFでアクションが呼び出されるまでSparkでは何も行われないので、コードはあまりエレガントではありません...結局、結果のDFはまったく同じです!
フェリペジェラール

2
@FelipeGerard この投稿を確認しください。列が多いと、問題が発生する可能性があります。
Alberto Bonsanto 2016年

1
@AlbertoBonsanto 100を超える列がある場合に列をエイリアスとして選択する方法

3
@NuValue、最初に実行する必要がありますfrom functools import reduce
joaofbsm

168
df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")

この方法を使用する利点:列のリストが長い場合、変更する列名はほんのわずかです。これは、これらのシナリオで非常に便利です。重複する列名を持つテーブルを結合するときに非常に役立ちます。


他のすべての列を変更しないこのソリューションのバリアントはありますか?この方法やその他の方法では、明示的に名前が付けられた列のみが残りました(他のすべては削除されました)
Quetzalcoatl

1
+1うまくいきました。指定された列を編集しただけで、他の列は変更されず、列は削除されませんでした。
mnis.p 2018

2
@Quetzalcoatlこのコマンドは、他のすべての列を維持しながら、指定された列のみを変更するように見えます。したがって、潜在的に多くの列名の1つだけを名前変更する優れたコマンド
user989762

@ user989762:同意。私の最初の理解はこれについて正しくありませんでした...!
ケツァルコアトル

61

すべての列名を変更したい場合は、 df.toDF(*cols)


5
このソリューションは、OPごとのdf.columns = new_column_name_listに最も近いものであり、簡潔さと実行の両方の点で優れています。
ケツァルコアトル

これがベストアンサーとして選ばれるべきだと思います
HanaKaze

私はパンダのデータフレームからヘッダー名を取得していたので、私はそのまま使用しましたdf = df.toDF(*my_pandas_df.columns)
Nic Sc​​ozzaro

この答えは私を混乱させます。古い列名から新しい名前へのマッピングがあるべきではありませんか?これcolsは新しい列名になることで機能し、名前のcols順序がデータフレームの列の順序に対応していると仮定しますか?
rbatt

47

すべての列名に単純な変換を適用したい場合は、このコードでうまくいきます(すべてのスペースをアンダースコアに置き換えます)。

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

toDfトリックのための@ user8117731に感謝します。


13

単一の列の名前を変更し、残りをそのままにしたい場合:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

13

df.withColumnRenamed('age', 'age2')


1
Pankaj Kumarの回答Alberto Bonsantoの回答(それぞれ2016年と2015年のもの)は、すでにの使用を提案していwithColumnRenamedます。
アンドリューマイヤーズ

ありがとう、はい。ただし、構文はいくつかあります。それらをより正式な回答にまとめる必要がありますか?data.withColumnRenamed(oldColumns [idx]、newColumns [idx])とdata.withColumnRenamed(columnname、new columnname)の違いは、使用しているpysparkのバージョンに依存すると思います
Jayasumana

1
これは別の構文ではありません。唯一の違いは、列名を配列に格納しなかったことです。
Ed Bordin

13

これは私が使用したアプローチです:

pysparkセッションを作成します。

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

データフレームを作成します。

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

列名を含むdfを表示:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

新しい列名でリストを作成します。

newcolnames = ['NameNew','AmountNew','ItemNew']

dfの列名を変更します。

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

新しい列名でdfを表示:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

誰かが使用したい場合に備えて、pysparkデータフレームの複数の列の名前を変更するための使いやすい関数を作成しました。

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

注意してください、両方のリストは同じ長さでなければなりません。


1
これでいい仕事。でも、私が必要なものには少々やりすぎです。とold_columns同じなので、dfを渡すだけでかまいませんdf.columns
Darth Egregious

6

1つの列のみの名前を変更する別の方法(を使用import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

私はこれを使います:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
このコードスニペットは問題を解決する可能性がありますが、説明を含めると、投稿の品質を向上させるのに役立ちます。あなたは将来の読者のための質問に答えていることを覚えておいてください、そしてそれらの人々はあなたのコード提案の理由を知らないかもしれません。
Isma 2018年

1

次の関数を使用して、データフレームのすべての列の名前を変更できます。

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

いくつかの列名のみを更新する必要がある場合は、replace_withリストで同じ列名を使用できます

すべての列の名前を変更するには

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

一部の列の名前を変更するには

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

1つの列の名前を変更する場合でも、toDF()を使用できます。例えば、

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

さまざまな方法で列名を変更できます。

まず、簡単なDataFrameを作成します。

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

次に、col_1をcol_3に名前変更してみましょう。PFBで同じことを行うためのいくつかのアプローチ。

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

これが出力です。

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

これがお役に立てば幸いです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.