谢邀。看到问题后像这样百万级的数据操作,想效率高,一定要批量操作。下面我说一下解决问题的思路:有一张表单表查询达到20s的时间,其实已经很慢了,我建议对改表做个分区,使用range还是list或者hash分区就要看具体的业务场景了,我们可以大致分成6个区,这样就能将261万行数据分到六个区,这样的查询速度会提高不少。关于插入到新表的操作我建议写存储过程来解决,可以设置在一万条或者更多条数据的时候commit,这样会大大提高效率,另外哪些索引一定要建在两个表关联的条件上,最好不要建立联合索引。
说的有什么不足的地方欢迎大家指出,共同进步。
Copyright © 广州京杭网络科技有限公司 2005-2025 版权所有 粤ICP备16019765号
广州京杭网络科技有限公司 版权所有