mysql limit 分页优化详解
实现分页,我们一般会使用 select * from table where id >100 limit a,b , 当分页过大时,如达到一万页,此时 a =十万 ,b=10, 虽然此处使用到了索引(不用索引情况会更加糟糕),但是通过索引检索后还是需要回表去取 十万零一十条数据 然后丢掉前十万条, 返回十条,这个代价明显太大了。
通常的解决方法是,限制总页数,因为通过没有用户会对一万页后的数据感兴趣,当然也可以通过coreseek sphinx 等实现
当然也可以通过sql来优化,下面我们通过一个子查询来实现
代码如下 | |
select * from table join (select id from table where id>100 limit 10000,10) as b on table.id=b.id |
在子句select id from table where id>100 limit 10000,10 中 因为列id有索引, 查询时会直接通过索引检索并返回,无需回表查找行。
然后外层的关联操作会直接根据关联id去查库,从而取得数据
文中不是直接使用limit,而是首先获取到offset的id然后直接使用limit size来获取数据。根据他的数据,明显要好于直接使用limit。这里我具体使用数据分两种情况进行测试。(测试环境win2033+p4双核 (3GHZ) +4G内存 MySQL 5.0.19)
1、offset比较小的时候。
select * from yanxue8_visit limit 10,10
多次运行,时间保持在0.0004-0.0005之间
代码如下 | |
Select * From yanxue8_visit Where vid >=( |
多次运行,时间保持在0.0005-0.0006之间,主要是0.0006
结论:偏移offset较小的时候,直接使用limit较优。这个显然是子查询的原因。
2、offset大的时候。
select * from yanxue8_visit limit 10000,10
多次运行,时间保持在0.0187左右
代码如下 | |
Select * From yanxue8_visit Where vid >=( |
多次运行,时间保持在0.0061左右,只有前者的1/3。可以预计offset越大,后者越优。
以后要注意改正自己的limit语句,优化一下MySQL了