Tomcat和nginx mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?
mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?
在正常配置下,MySQL只能承载2000万数据(同时读写,表中有大文本字段,单服务器)。现在已经超过1亿,而且还在增加,建议按以下方式处理:
1子表。它可以按时间或一定的规则进行拆分,以便尽可能地查询子表中的数据库。这是最有效的方法。特别是写,放入一个新表,并定期同步。如果记录不断更新,最好将写入的数据放在redis中,并定期同步表3的大文本字段,将它们分隔成一个新的独立表。对于较大的文本字段,可以使用NoSQL数据库
4优化体系结构,或者优化SQL查询,避免联合表查询,尽量不要使用count(*)、in、recursion等性能消耗语句
5使用内存缓存,或者在前端读取时增加缓存数据库。重复读取时,直接从缓存中读取。
以上是一种低成本的管理方法,基本上几个服务器就可以做到,但是管理起来有点麻烦。
当然,如果总体数据量特别大,并且您不关心投资成本,您可以使用集群或tidb
原因有很多,不尽相同。
1. 历史原因,例如,当Linux开始编写时,没有其他选项,只有C.
2。个人偏好:这些开源库是由当时的主要赞助商赞助的。赞助者喜欢C,但不想使用C,所以总是C
3。性能要求,你列出这些,都是在各自领域的性能要求到了极致,用C是个不错的选择。
4. 语言本身的影响,例如C,已经非常复杂了。如果引入,很可能不同的人会采用不同的写作方法,高低没有区别。然而,在一个开源项目中有这么多的编写方法,维护就成了一个大问题。
为什么mysql,nginx,libev,redis,linux都是用C写的?
Nginx通过libevent和Nginx的fastCGI配置(fastcgiu)建立网络连接池passip:端口), 使用TCP 127.0.0.1:9000或UNIX套接字连接UNIX:///var/run/unix.sock文件PHP和MySQL通过MySQL*的PHP扩展连接,实现TCP连接(持久连接或非持久连接)
Tomcat和nginx mysql怎么监控读写 nginx和mysql分布式部署
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。