golang mysql连接池 为什么MySQL在数据库较大的时候分页查询很慢,如何优化?
为什么MySQL在数据库较大的时候分页查询很慢,如何优化?
正如房东所说,分页查询在我们的实际应用中非常常见,也是问题最多的查询场景。例如,对于下面的简单语句,通常的思考方式是在name、age、register中u在time字段上创建一个复合索引。这样,条件排序可以有效地利用索引,性能得到快速提高。
如上例所示,当limit子句变为“limit 100000,50”时,我们会发现,如果只选择了50条语句,为什么会变慢?
,所以我们会觉得很慢。
mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?
在正常配置下,MySQL只能承载2000万个数据(同时读写,并且表中有大的文本字段,单个服务器可以同时读写)服务器)。现在已经超过1亿,而且还在增加,建议按以下方式处理:
1子表。它可以按时间或一定的规则进行拆分,以便尽可能地查询子表中的数据库。这是最有效的方法。特别是写,放入一个新表,并定期同步。如果记录不断更新,最好将写入的数据放在redis中,并定期同步表3的大文本字段,将它们分隔成一个新的独立表。对于较大的文本字段,可以使用NoSQL数据库
4优化体系结构,或者优化SQL查询,避免联合表查询,尽量不要使用count(*)、in、recursion等性能消耗语句
5使用内存缓存,或者在前端读取时增加缓存数据库。重复读取时,直接从缓存中读取。
以上是一种低成本的管理方法,基本上几个服务器就可以做到,但是管理起来有点麻烦。
当然,如果总体数据量特别大,而且我们不关心投资成本,那就使用cluster或tidb
所谓的并发可以从概念上看它是不并行的。从用户的角度来看,有一种同时执行的假象,但它在数据库中确实是串行的,或者在某个粒度上是串行的。
以更新表中的一行数据为例,更新时会锁定更改后的数据行,避免其他进程访问该行,从而避免数据冲突。
此外,还有其他类型的锁,以适应不同的场景。因此,在我们所谓的并发场景中,不存在数据问题。
数据库高并发请求,如何保证数据完整性?
以MySQL为列:
1:要支持高并发系统,必须涉及事务,所以数据库引擎必须选择InnoDB。InnoDB支持事务,事务级别取决于业务。如果业务数据一致性要求非常高,事务将开启序列化级别,这将完全隔离事务,但会导致对锁资源的竞争加剧。MySQL的性能在一定程度上降低了。
2:数据库分为主数据库和从数据库。主数据库负责写入数据,集群数据库负责读取数据。注意主从数据库的数据一致性。
3:冷热数据分离,美团、饥饿部分设计采用冷热数据分离。以订单为例,出库单的主要业务场景是查询。数据查询越向前,概率越低。这是冷数据。正在交易的订单是热点数据,需要随时查询和更新。冷数据可以放入redis缓存。这将提高查询效率。
4:数据表设计,充分利用索引查询。businesssql避免返回无用的行和列,禁止使用select*query,在查询时增加限制,并尽可能返回满足要求的行。对于复杂的SQL,请考虑拆分SQL。拆分SQL有一个优点。对于重复查询SQL,将第二次查询放入MySQL缓冲区,避免重复磁盘操作,提高访问性能。
5:子数据库和子表。例如,业务数据按月份分类。在一定程度上,增加、删除、修改和检查的压力将得到缓解。
希望对您有所帮助。谢谢您。
golang mysql连接池 mysql高并发数据重复 golang连接mysql
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。