簡単なシナリオ:1600万件を超えるレコード[サイズは2GB]のテーブル。SELECTでのLIMITオフセットが高いほど、ORDER BY * primary_key *を使用するとクエリが遅くなります
そう
SELECT * FROM large ORDER BY `id` LIMIT 0, 30
はるかに少ない
SELECT * FROM large ORDER BY `id` LIMIT 10000, 30
いずれにしても、注文するレコードは30件だけで、同じです。したがって、ORDER BYによるオーバーヘッドではありません。
現在、最新の30行をフェッチする場合、約180秒かかります。その単純なクエリをどのように最適化できますか?