Python json.loadsはValueErrorを示します:追加データ


151

JSONファイル "new.json"から一部のデータを取得しています。一部のデータをフィルターにかけ、それを新しいJSONファイルに保存します。これが私のコードです:

import json
with open('new.json') as infile:
    data = json.load(infile)
for item in data:
    iden = item.get["id"]
    a = item.get["a"]
    b = item.get["b"]
    c = item.get["c"]
    if c == 'XYZ' or  "XYZ" in data["text"]:
        filename = 'abc.json'
    try:
        outfile = open(filename,'ab')
    except:
        outfile = open(filename,'wb')
    obj_json={}
    obj_json["ID"] = iden
    obj_json["VAL_A"] = a
    obj_json["VAL_B"] = b

エラーが発生しています。トレースバックは次のとおりです。

  File "rtfav.py", line 3, in <module>
    data = json.load(infile)
  File "/usr/lib64/python2.7/json/__init__.py", line 278, in load
    **kw)
  File "/usr/lib64/python2.7/json/__init__.py", line 326, in loads
    return _default_decoder.decode(s)
  File "/usr/lib64/python2.7/json/decoder.py", line 369, in decode
    raise ValueError(errmsg("Extra data", s, end, len(s)))
ValueError: Extra data: line 88 column 2 - line 50607 column 2 (char 3077 - 1868399)

誰かが私を助けてくれますか?

これはnew.jsonのデータのサンプルです。ファイルにはそのような辞書が約1500個あります

{
    "contributors": null, 
    "truncated": false, 
    "text": "@HomeShop18 #DreamJob to professional rafter", 
    "in_reply_to_status_id": null, 
    "id": 421584490452893696, 
    "favorite_count": 0, 
    "source": "<a href=\"https://mobile.twitter.com\" rel=\"nofollow\">Mobile Web (M2)</a>", 
    "retweeted": false, 
    "coordinates": null, 
    "entities": {
        "symbols": [], 
        "user_mentions": [
            {
                "id": 183093247, 
                "indices": [
                    0, 
                    11
                ], 
                "id_str": "183093247", 
                "screen_name": "HomeShop18", 
                "name": "HomeShop18"
            }
        ], 
        "hashtags": [
            {
                "indices": [
                    12, 
                    21
                ], 
                "text": "DreamJob"
            }
        ], 
        "urls": []
    }, 
    "in_reply_to_screen_name": "HomeShop18", 
    "id_str": "421584490452893696", 
    "retweet_count": 0, 
    "in_reply_to_user_id": 183093247, 
    "favorited": false, 
    "user": {
        "follow_request_sent": null, 
        "profile_use_background_image": true, 
        "default_profile_image": false, 
        "id": 2254546045, 
        "verified": false, 
        "profile_image_url_https": "https://pbs.twimg.com/profile_images/413952088880594944/rcdr59OY_normal.jpeg", 
        "profile_sidebar_fill_color": "171106", 
        "profile_text_color": "8A7302", 
        "followers_count": 87, 
        "profile_sidebar_border_color": "BCB302", 
        "id_str": "2254546045", 
        "profile_background_color": "0F0A02", 
        "listed_count": 1, 
        "profile_background_image_url_https": "https://abs.twimg.com/images/themes/theme1/bg.png", 
        "utc_offset": null, 
        "statuses_count": 9793, 
        "description": "Rafter. Rafting is what I do. Me aur mera Tablet.  Technocrat of Future", 
        "friends_count": 231, 
        "location": "", 
        "profile_link_color": "473623", 
        "profile_image_url": "http://pbs.twimg.com/profile_images/413952088880594944/rcdr59OY_normal.jpeg", 
        "following": null, 
        "geo_enabled": false, 
        "profile_banner_url": "https://pbs.twimg.com/profile_banners/2254546045/1388065343", 
        "profile_background_image_url": "http://abs.twimg.com/images/themes/theme1/bg.png", 
        "name": "Jayy", 
        "lang": "en", 
        "profile_background_tile": false, 
        "favourites_count": 41, 
        "screen_name": "JzayyPsingh", 
        "notifications": null, 
        "url": null, 
        "created_at": "Fri Dec 20 05:46:00 +0000 2013", 
        "contributors_enabled": false, 
        "time_zone": null, 
        "protected": false, 
        "default_profile": false, 
        "is_translator": false
    }, 
    "geo": null, 
    "in_reply_to_user_id_str": "183093247", 
    "lang": "en", 
    "created_at": "Fri Jan 10 10:09:09 +0000 2014", 
    "filter_level": "medium", 
    "in_reply_to_status_id_str": null, 
    "place": null
} 

これは、入力JSONに1行に複数のオブジェクトがある場合に必ず発生するエラーです。ここでの答えの多くは、1行に1つのオブジェクトしかない、またはそれに従って例を構築することを前提としていますが、そうでない場合は壊れます。
smci

@smci:ラインを説明できますかmore than one object per line
aspiring1

回答:


150

次の例でわかるように、json.loads(およびjson.load)は複数のjsonオブジェクトをデコードしません。

>>> json.loads('{}')
{}
>>> json.loads('{}{}') # == json.loads(json.dumps({}) + json.dumps({}))
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "C:\Python27\lib\json\__init__.py", line 338, in loads
    return _default_decoder.decode(s)
  File "C:\Python27\lib\json\decoder.py", line 368, in decode
    raise ValueError(errmsg("Extra data", s, end, len(s)))
ValueError: Extra data: line 1 column 3 - line 1 column 5 (char 2 - 4)

複数の辞書をダンプしたい場合は、それらをリストにラップし、リストをダンプします(辞書を複数回ダンプするのではなく)

>>> dict1 = {}
>>> dict2 = {}
>>> json.dumps([dict1, dict2])
'[{}, {}]'
>>> json.loads(json.dumps([dict1, dict2]))
[{}, {}]

7
上記のコードを参考にして、もう一度説明してもらえますか?私は初心者で、そのようなことを理解するのに時間がかかることがあります。
Apoorv Ashutosh 2014

1
@ ApoorvAshutosh、new.jsonjson ともう1つの冗長データが含まれているようです。json.loadjson.loadsjsonのみをデコードできます。ValueErrorあなたが見るようにそれが追加のデータに遭遇するとそれを発生させます。
falsetru 2014年

new.jsonからのサンプルを貼り付け、そこからいくつかのデータをフィルターで除外しているため、追加のデータをどこから取得しているかがわかりません
Apoorv Ashutosh

1
@ApoorvAshutosh、あなたは編集された質問でそのような辞書さらに1500個言った。それが追加データです。あなたがを作った人ならnew.json、ただ1つのjsonをファイルに入れてください。
falsetru 2014年

1
@ ApoorvAshutosh、jsonとして複数の辞書をダンプする必要がある場合は、リストにラップして、リストをダンプします。
falsetru 2014年

100

ファイルから読み取るだけで、jsonifying行ごとに次の行を読み取ることができます。

tweets = []
for line in open('tweets.json', 'r'):
    tweets.append(json.loads(line))

これにより、中間のPythonオブジェクトの保存が回避されます。append()通話ごとに1つの完全なツイートを書く限り、これは機能するはずです。


7
受け入れられた回答は、エクスポートのプロセスを制御する場合に問題の原因を修正する方法を示していますが、他の誰かのデータを使用していて、それを処理する必要がある場合、これはオーバーヘッドの少ない優れた方法です。
charlesreid1 2017年

3
最近の多くのデータセット(例:Yelpデータセット)は、Jsonオブジェクトの "セット"として提供されており、それらをロードすると便利です。
Gabrer

36

MongoDBからダンプされたJSONファイルをロードしようとしていたので、これに遭遇しました。エラーが出た

JSONDecodeError: Extra data: line 2 column 1

MongoDB JSONダンプには1行に1つのオブジェクトがあるため、私にとってうまくいったのは次のとおりです。

import json
data = [json.loads(line) for line in open('data.json', 'r')]

13

これは、JSONファイルが1つのJSONレコードだけではない場合にも発生する可能性があります。JSONレコードは次のようになります。

[{"some data": value, "next key": "another value"}]

括弧[]で開閉します。括弧内には中括弧{}があります。中括弧のペアはいくつあってもかまいませんが、すべて終わり括弧[]で終わります。jsonファイルにこれらのファイルが複数含まれている場合:

[{"some data": value, "next key": "another value"}]
[{"2nd record data": value, "2nd record key": "another value"}]

次に、loads()は失敗します。

失敗した自分のファイルでこれを確認しました。

import json

guestFile = open("1_guests.json",'r')
guestData = guestFile.read()
guestFile.close()
gdfJson = json.loads(guestData)

1_guests.jsonには1つのレコード[]があるため、これは機能します。all_guests.jsonを使用していた元のファイルには、改行で区切られた6つのレコードがありました。5つのレコード(角かっこで囲んでいることを確認済み)を削除し、新しい名前でファイルを保存しました。次に、loadsステートメントが機能しました。

エラーは

   raise ValueError(errmsg("Extra data", s, end, len(s)))
ValueError: Extra data: line 2 column 1 - line 10 column 1 (char 261900 - 6964758)

PS。「レコード」という言葉を使っていますが、正式な名前ではありません。また、ファイルに私のような改行文字がある場合は、ファイルをループして一度に1レコードをjson変数にload()できます。


2
json.loads改行区切りのjsonチャンクを読み取る方法はありますか?つまり、[json.loads(x) for x in text.split('\n')]?関連:json.dumpsデフォルトのインデントで出力にリテラルの改行が含まれないという保証はありますか?
ベン

1
@Benは、デフォルトjson.dumpsでテキストコンテンツの改行をに変更し"\n"、jsonを1行に保ちます。
jchook 2016

7

まあ、それは誰かを助けるかもしれません。私のjsonファイルがこのようなものである間、私はちょうど同じエラーを得ました

{"id":"1101010","city_id":"1101","name":"TEUPAH SELATAN"}
{"id":"1101020","city_id":"1101","name":"SIMEULUE TIMUR"}

そして、私はそれが不正な形式であることを発見したので、それをある種の

{
  "datas":[
    {"id":"1101010","city_id":"1101","name":"TEUPAH SELATAN"},
    {"id":"1101020","city_id":"1101","name":"SIMEULUE TIMUR"}
  ]
}

1
あなたと同じようにロードするjson.load(infile)
Akbar Noto

6

あなたの問題のワンライナー:

data = [json.loads(line) for line in open('tweets.json', 'r')]

1
これは一般的な解決策ではなく、入力に1行あたり1つのJSONオブジェクトがあると想定し、そうでない場合は中断します。
smci

3

2ライナーでそれを解決したい場合は、次のように実行できます。

with open('data.json') as f:
    data = [json.loads(line) for line in f]

1

辞書をリストに保存することは、@ falsetruによって提案された理想的な解決策ではないと思います。

より良い方法は、dictsを繰り返し処理し、新しい行を追加して.jsonに保存することです。

私たちの2つの辞書は

d1 = {'a':1}

d2 = {'b':2}

あなたはそれらを.jsonに書き込むことができます

import json
with open('sample.json','a') as sample:
    for dict in [d1,d2]:
        sample.write('{}\n'.format(json.dumps(dict)))

あなたは問題なくjsonファイルを読むことができます

with open('sample.json','r') as sample:
    for line in sample:
        line = json.loads(line.strip())

シンプルで効率的


これは一般的な解決策ではなく、入力に1行あたり1つのJSONオブジェクトがあると想定し、そうでない場合は中断します。
smci
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.