mysql数据库插入数据很慢,怎么回事?
如果原表很大,插入数据会非常慢,建议插入到临时表,然后用一个语句(INSERT INTO XXX SELECT * FTOM TMPXXX)把数据插入,这样速度会快一点,如果想更快,需要减少不必要的索引,如果大批量的插入,可以插入前删除索引,插入后重新建立。
mysql,有一张表里面已经有几千万条数据了,网页访问时极其缓慢,如何提高检索速度?
一般查询的话应该有常用的语句的。
比如常见查询为:
select * from factdata where user='a' and module='b' and dtime between '2012-11-01 00:10:00' and '2012-11-01 00:11:10';
那么你这时候需要在factdata表上建立(user,module,dtime)的联合索引。
alter table factdata add index i_merge(`user`,`module`,`dtime`);
你可以执行
explain select * from factdata where user='a' and module='b' and dtime between '2012-11-01 00:10:00' and '2012-11-01 00:11:10';
查看建立索引前面的返回的结果。
假如没有索引的话,explain会显示返回查询全表的数据自然会很慢了。
假如用到了索引的话,可以快速的找到需要查询的区间里的数据,往往需要查询的数据量是全表的1/100,1/1000,那么这时候花费的时间就是1/100,1/1000了。
mysqlsum查询速度很慢?
这个问题和设计有关系,简单的sql优化提升不了多少,但是这个sql还是可以进一步优化的
利用索引,用unionall代替in,如select*fromtabwhereidin(1,2),可写成select*fromtabwhereid=1unionall
select*fromtabwhereid=2
但是上面的优化起不到根本效果,如果100万1000万数据怎么办,难道每次都要全部查出来嘛,那是不可能的,而且你的页面也不能全部都展示出来!所有需要换个思路,如,将一个会员的订单记录查询出来,然后通过程序(java或者存储过程)算出时间差,按照上面再计算下一个会员;
mysql分页怎么越到后面越慢?
因为offset limit是本质上就是服务端的scan啊,查询最后一条就是scan了1000万数据,哪怕scan的是索引也要scan几十万个磁盘块,当然慢
如果是导数据的话考虑下游标
如果是界面上展示的话首先可以考虑优化查询场景,因为很少有1000w条数据分页展示的情况,优化后一般顶天1w页也就是10w左右数据,合理设计和命中索引的情况下offset limit还是很快的
还没有评论,来说两句吧...