基準
Postgresので最も興味深い候補者のテスト9.4と9.5の途中で現実的なテーブルと200K行中purchases
および10K明確なcustomer_id
(顧客あたり平均20行)。
Postgres 9.5の場合、86446人の異なる顧客を対象に2番目のテストを実行しました。以下を参照してください(顧客ごとの平均2.3行)。
セットアップ
メインテーブル
CREATE TABLE purchases (
id serial
, customer_id int -- REFERENCES customer
, total int -- could be amount of money in Cent
, some_column text -- to make the row bigger, more realistic
);
serial
(以下に追加されたPK制約)と整数を使用しcustomer_id
ます。これは、より一般的な設定だからです。また追加some_column
通常より多くの列を補うためにれます。
ダミーデータ、PK、インデックス-一般的なテーブルにもいくつかの無効なタプルがあります。
INSERT INTO purchases (customer_id, total, some_column) -- insert 200k rows
SELECT (random() * 10000)::int AS customer_id -- 10k customers
, (random() * random() * 100000)::int AS total
, 'note: ' || repeat('x', (random()^2 * random() * random() * 500)::int)
FROM generate_series(1,200000) g;
ALTER TABLE purchases ADD CONSTRAINT purchases_id_pkey PRIMARY KEY (id);
DELETE FROM purchases WHERE random() > 0.9; -- some dead rows
INSERT INTO purchases (customer_id, total, some_column)
SELECT (random() * 10000)::int AS customer_id -- 10k customers
, (random() * random() * 100000)::int AS total
, 'note: ' || repeat('x', (random()^2 * random() * random() * 500)::int)
FROM generate_series(1,20000) g; -- add 20k to make it ~ 200k
CREATE INDEX purchases_3c_idx ON purchases (customer_id, total DESC, id);
VACUUM ANALYZE purchases;
customer
テーブル-上位クエリ用
CREATE TABLE customer AS
SELECT customer_id, 'customer_' || customer_id AS customer
FROM purchases
GROUP BY 1
ORDER BY 1;
ALTER TABLE customer ADD CONSTRAINT customer_customer_id_pkey PRIMARY KEY (customer_id);
VACUUM ANALYZE customer;
私の中で第二のテスト 9.5のための私は、同じ設定を使用しますが、でrandom() * 100000
生成するcustomer_id
あたりわずか数行を取得しますcustomer_id
。
テーブルのオブジェクトサイズ purchases
このクエリで生成されます。
what | bytes/ct | bytes_pretty | bytes_per_row
-----------------------------------+----------+--------------+---------------
core_relation_size | 20496384 | 20 MB | 102
visibility_map | 0 | 0 bytes | 0
free_space_map | 24576 | 24 kB | 0
table_size_incl_toast | 20529152 | 20 MB | 102
indexes_size | 10977280 | 10 MB | 54
total_size_incl_toast_and_indexes | 31506432 | 30 MB | 157
live_rows_in_text_representation | 13729802 | 13 MB | 68
------------------------------ | | |
row_count | 200045 | |
live_tuples | 200045 | |
dead_tuples | 19955 | |
クエリ
1. row_number()
CTEで(他の回答を参照)
WITH cte AS (
SELECT id, customer_id, total
, row_number() OVER(PARTITION BY customer_id ORDER BY total DESC) AS rn
FROM purchases
)
SELECT id, customer_id, total
FROM cte
WHERE rn = 1;
2. row_number()
サブクエリで(私の最適化)
SELECT id, customer_id, total
FROM (
SELECT id, customer_id, total
, row_number() OVER(PARTITION BY customer_id ORDER BY total DESC) AS rn
FROM purchases
) sub
WHERE rn = 1;
3. DISTINCT ON
(他の回答を参照)
SELECT DISTINCT ON (customer_id)
id, customer_id, total
FROM purchases
ORDER BY customer_id, total DESC, id;
4. LATERAL
サブクエリを使用したrCTE (ここを参照)
WITH RECURSIVE cte AS (
( -- parentheses required
SELECT id, customer_id, total
FROM purchases
ORDER BY customer_id, total DESC
LIMIT 1
)
UNION ALL
SELECT u.*
FROM cte c
, LATERAL (
SELECT id, customer_id, total
FROM purchases
WHERE customer_id > c.customer_id -- lateral reference
ORDER BY customer_id, total DESC
LIMIT 1
) u
)
SELECT id, customer_id, total
FROM cte
ORDER BY customer_id;
5.付きのcustomer
テーブルLATERAL
(ここを参照)
SELECT l.*
FROM customer c
, LATERAL (
SELECT id, customer_id, total
FROM purchases
WHERE customer_id = c.customer_id -- lateral reference
ORDER BY total DESC
LIMIT 1
) l;
6. array_agg()
とORDER BY
(他の回答を参照)
SELECT (array_agg(id ORDER BY total DESC))[1] AS id
, customer_id
, max(total) AS total
FROM purchases
GROUP BY customer_id;
結果
上記のクエリの実行時間EXPLAIN ANALYZE
(およびすべてのオプションをオフ)、最高5回の実行。
すべてのクエリで(他の手順の中で)インデックスのみのスキャンが使用されましたpurchases2_3c_idx
。インデックスのサイズが小さいだけのものもあれば、より効果的なものもあります。
A. Postgres 9.4、20万行、最大20 customer_id
1. 273.274 ms
2. 194.572 ms
3. 111.067 ms
4. 92.922 ms
5. 37.679 ms -- winner
6. 189.495 ms
B. Postgres 9.5と同じ
1. 288.006 ms
2. 223.032 ms
3. 107.074 ms
4. 78.032 ms
5. 33.944 ms -- winner
6. 211.540 ms
C. Bと同じですが、1行あたり約2.3行 customer_id
1. 381.573 ms
2. 311.976 ms
3. 124.074 ms -- winner
4. 710.631 ms
5. 311.976 ms
6. 421.679 ms
関連するベンチマーク
Postgres 11.5(2019年9月現在)での1,000万行と60,000の一意の「顧客」による「ogr」テストによる新しいものを次に示します。結果は、これまでに見てきたことと一致しています。
2011年の元の(古い)ベンチマーク
私は、PostgreSQL 9.1を使用して、65579行の実際のテーブルと、関連する3つの列それぞれに単一列のbtreeインデックスで3つのテストを実行し、5回の実行で最高の実行時間を費やしました。@OMGPoniesの最初のクエリ()を上記のソリューション()
と比較します。A
DISTINCT ON
B
テーブル全体を選択すると、この場合は5958行になります。
A: 567.218 ms
B: 386.673 ms
WHERE customer BETWEEN x AND y
1000行になる条件を使用します。
A: 249.136 ms
B: 55.111 ms
で単一の顧客を選択しWHERE customer = x
ます。
A: 0.143 ms
B: 0.072 ms
同じテストが他の回答で説明されているインデックスで繰り返されました
CREATE INDEX purchases_3c_idx ON purchases (customer, total DESC, id);
1A: 277.953 ms
1B: 193.547 ms
2A: 249.796 ms -- special index not used
2B: 28.679 ms
3A: 0.120 ms
3B: 0.048 ms
MAX(total)
か?