2016 - 2024

感恩一路有你

sql拆分字符串split mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?

浏览量:2566 时间:2021-03-14 19:08:21 作者:admin

mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?

在正常配置下,MySQL只能承载2000万数据(同时读写,表中有大文本字段,单服务器)。现在已经超过1亿,而且还在增加,建议按以下方式处理:

1子表。它可以按时间或一定的规则进行拆分,以便尽可能地查询子表中的数据库。这是最有效的方法。特别是写,放入一个新表,并定期同步。如果记录不断更新,最好将写入的数据放在redis中,并定期同步表3的大文本字段,将它们分隔成一个新的独立表。对于较大的文本字段,可以使用NoSQL数据库

4优化体系结构,或者优化SQL查询,避免联合表查询,尽量不要使用count(*)、in、recursion等性能消耗语句

5使用内存缓存,或者在前端读取时增加缓存数据库。重复读取时,直接从缓存中读取。

以上是一种低成本的管理方法,基本上几个服务器就可以做到,但是管理起来有点麻烦。

当然,如果总体数据量特别大,并且您不关心投资成本,那么PostgreSQL的基本思想是将记录集的行构造成字典。例如,它有一个函数,row到JSON用于构造JSON字典。假设表名是test,您可以:

或者剩下的是如何遍历JSON字典以获得具有最大值的键。例如,只需编写一个函数。它也可以用于应用层。您还可以使用JSON到记录集。当然,一般来说,比较中涉及的列数是确定的。例如,如果要比较(高度、宽度、长度),请使用“联接”将它们逐个联接到id,每个结果集都将成为由id、字段名和字段值两列组成的结果集,然后合并为一个较大的结果集。其余的是基本的select max操作。以上都是基于PostgreSQL的。我说得很简单,但没有给出完整的结果。我们来看看思路。有一些想法如果没有预备知识,也不容易只通过搜索引擎找到,不过,不建议你用百度。

sql拆分字符串split sql按逗号拆分列为多行 sql一行拆分成多行

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。