回答:
これを行うための最良の方法は、バージョン4.2以降であり、更新ドキュメントおよびupdateOne
、updateMany
またはupdate
コレクションメソッドで集約パイプラインを使用できます。後者は、すべてではないにしてもほとんどの言語ドライバーで廃止されていることに注意してください。
バージョン4.2では、$set
のエイリアスであるパイプラインステージ演算子も導入されました $addFields
。$set
ここでは、達成しようとしていることをマッピングするために使用します。
db.collection.<update method>(
{},
[
{"$set": {"name": { "$concat": ["$firstName", " ", "$lastName"]}}}
]
)
3.4以降$addFields
では、$out
集計パイプライン演算子を使用できます。
db.collection.aggregate(
[
{ "$addFields": {
"name": { "$concat": [ "$firstName", " ", "$lastName" ] }
}},
{ "$out": "collection" }
]
)
これによってコレクションが更新されるのではなく、既存のコレクションが置き換えられるか、新しいコレクションが作成されることに注意してください。また、「型キャスト」を必要とする更新操作の場合、クライアント側の処理が必要になります。操作によっては、find()
メソッドの代わりにメソッドを使用する必要がある場合があります.aggreate()
。
これを行う方法は$project
、ドキュメントにingし、$concat
文字列集計演算子を使用して連結された文字列を返すことです。次に、カーソルを反復処理し、$set
更新演算子を使用して、一括操作を使用して新しいフィールドをドキュメントに追加し、効率を最大化します。
var cursor = db.collection.aggregate([
{ "$project": {
"name": { "$concat": [ "$firstName", " ", "$lastName" ] }
}}
])
これから、bulkWrite
メソッドを使用する必要があります。
var requests = [];
cursor.forEach(document => {
requests.push( {
'updateOne': {
'filter': { '_id': document._id },
'update': { '$set': { 'name': document.name } }
}
});
if (requests.length === 500) {
//Execute per 500 operations and re-init
db.collection.bulkWrite(requests);
requests = [];
}
});
if(requests.length > 0) {
db.collection.bulkWrite(requests);
}
このバージョンから、非推奨になったBulk
APIとその関連メソッドを使用する必要があります。
var bulk = db.collection.initializeUnorderedBulkOp();
var count = 0;
cursor.snapshot().forEach(function(document) {
bulk.find({ '_id': document._id }).updateOne( {
'$set': { 'name': document.name }
});
count++;
if(count%500 === 0) {
// Excecute per 500 operations and re-init
bulk.execute();
bulk = db.collection.initializeUnorderedBulkOp();
}
})
// clean up queues
if(count > 0) {
bulk.execute();
}
cursor["result"].forEach(function(document) {
db.collection.update(
{ "_id": document._id },
{ "$set": { "name": document.name } }
);
})
反復する必要があります。あなたの特定のケースについて:
db.person.find().snapshot().forEach(
function (elem) {
db.person.update(
{
_id: elem._id
},
{
$set: {
name: elem.firstname + ' ' + elem.lastname
}
}
);
}
);
save()
がドキュメントを完全に置き換えることに注意することが重要です。update()
代わりに使用する必要があります。
db.person.update( { _id: elem._id }, { $set: { name: elem.firstname + ' ' + elem.lastname } } );
create_guid
反復するときに、ドキュメントごとに一意のGUIDのみを生成するという関数を作成しましたforEach
(つまりcreate_guid
、update
ステートメントで単に使用mutli=true
すると、すべてのドキュメントに対して同じGUIDが生成されます)。この答えは私にはぴったりでした。+1
MongoDB 3.4以降、これを効率的に行う方法があるようです。styvaneの回答を参照してください。
以下の時代遅れの答え
(まだ)更新でドキュメント自体を参照することはできません。ドキュメントを反復処理し、関数を使用して各ドキュメントを更新する必要があります。参照してくださいこの回答例えば、またはこのいずれかのサーバー側のためにeval()
。
update
操作で現在のドキュメントへの参照について言及しているMongoDBドキュメントで何も見つかりませんでした。この関連機能のリクエストも未解決のままです。
OPEN
ます。
アクティビティの多いデータベースでは、更新がアクティブに変化するレコードに影響するという問題が発生する可能性があるため、snapshot()の使用をお勧めします
db.person.find().snapshot().forEach( function (hombre) {
hombre.name = hombre.firstName + ' ' + hombre.lastName;
db.person.save(hombre);
});
http://docs.mongodb.org/manual/reference/method/cursor.snapshot/
を開始するMongo 4.2
とdb.collection.update()
、集約パイプラインを受け入れることができ、最終的に別のフィールドに基づくフィールドの更新/作成が可能になります。
// { firstName: "Hello", lastName: "World" }
db.collection.update(
{},
[{ $set: { name: { $concat: [ "$firstName", " ", "$lastName" ] } } }],
{ multi: true }
)
// { "firstName" : "Hello", "lastName" : "World", "name" : "Hello World" }
最初の部分{}
は一致クエリで、更新するドキュメント(この場合はすべてのドキュメント)をフィルタリングします。
2番目の部分[{ $set: { name: { ... } }]
は、更新集約パイプラインです(角括弧が集約パイプラインの使用を示すことに注意してください)。$set
新しい集計演算子であり、のエイリアスです$addFields
。
忘れないでください{ multi: true }
。そうしないと、最初に一致したドキュメントのみが更新されます。
上記の解決策を試しましたが、大量のデータには適していません。次に、ストリーム機能を発見しました:
MongoClient.connect("...", function(err, db){
var c = db.collection('yourCollection');
var s = c.find({/* your query */}).stream();
s.on('data', function(doc){
c.update({_id: doc._id}, {$set: {name : doc.firstName + ' ' + doc.lastName}}, function(err, result) { /* result == true? */} }
});
s.on('end', function(){
// stream can end before all your updates do if you have a lot
})
})
以下は、1つのフィールドを別のフィールドにコピーして、最大150_000レコードにするために思いついたものです。所要時間は約6分ですが、同じ数のルビーオブジェクトをインスタンス化して繰り返し処理する場合よりも、リソースの消費量が大幅に少なくなります。
js_query = %({
$or : [
{
'settings.mobile_notifications' : { $exists : false },
'settings.mobile_admin_notifications' : { $exists : false }
}
]
})
js_for_each = %(function(user) {
if (!user.settings.hasOwnProperty('mobile_notifications')) {
user.settings.mobile_notifications = user.settings.email_notifications;
}
if (!user.settings.hasOwnProperty('mobile_admin_notifications')) {
user.settings.mobile_admin_notifications = user.settings.email_admin_notifications;
}
db.users.save(user);
})
js = "db.users.find(#{js_query}).forEach(#{js_for_each});"
Mongoid::Sessions.default.command('$eval' => js)
MongoDBのバージョン4.2以降、更新は、その中に凝集パイプラインの使用を可能にするように、より柔軟性がありupdate
、updateOne
そしてupdateMany
。これで、集計演算子を使用してドキュメントを変換し、$set
コマンドを明示的に記述する必要なく更新できます(代わりにを使用します$replaceRoot: {newRoot: "$$ROOT"}
)
ここでは、集約クエリを使用してMongoDBのObjectID "_id"フィールドからタイムスタンプを抽出し、ドキュメントを更新しています(SQLの専門家ではありませんが、SQLはタイムスタンプを持つ自動生成されたObjectIDを提供していないと思います。その日付を自動的に作成します)
var collection = "person"
agg_query = [
{
"$addFields" : {
"_last_updated" : {
"$toDate" : "$_id"
}
}
},
{
$replaceRoot: {
newRoot: "$$ROOT"
}
}
]
db.getCollection(collection).updateMany({}, agg_query, {upsert: true})