linux常用命令 mysql中的两个导入命令的区别mysqlimport和source mysql的导出数据结构干什么用的?
mysql中的两个导入命令的区别mysqlimport和source mysql的导出数据结构干什么用的?
mysqlimport 是操作系统命令,不需要登录数据库;
source需要登录数据库后执行。
导出数据结构是为了导出建库建表命令sql,命令如下:
mysqldump -hhostname -uusername -ppassword -d databasename > d:sqldatabasename.sql
source d:sqldatabasename.sql
即可导入数据库结构,因为databasename.sql中只包含数据库结构的sql语句。
写入mysql数据库的数据量很大,数据库架构该怎么去设计?
对于这种大数据量系统业界已经有不少成熟方案
最简单的是读写分离,写操作只在主库写,配置自动同步到从库。部分读操作改成操作从库,减少主库数据库压力。
还可以让给应用加一个redis缓存,查询时先读缓存,读不到再读数据库。
如果改成这样,压力还是太大,就要考虑分表。
分表思路很多,例如把热点数据放一张表,非热点数据放一张表。或者按用户id尾号做hash,分表分布在不同表。
如果读写要求已经超过单机支撑能力,那就要考虑集群,你可以搜索一下怎么用mycat搭建数据库集群
怎样用mysql查询树结构数据?
当然这种结构就不要追求什么效率了。如果要效率高的,只能改表结构。1:select p2.id from table p1 ,table p2 where p1.id=p2.pid and p1.id=0 2:假设表名是treeSQL codeselect distinct a.id from tree as a inner join tree as b on (a.pid = b.pid) where b.pid >=0select distinct a.id from tree as a inner join tree as b on (a.pid = b.pid) where b.pid >=23.通过程序或数据库的store procedure来实现了。 在mySQL中无法以一句SQL实现。
mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?
mysql在常规配置下,一般只能承受2000万的数据量(同时读写,且表中有大文本字段,单台服务器)。现在超过1亿,并不断增加的情况下,建议如下处理:
1 分表。可以按时间,或按一定的规则拆分,做到查询某一条数据库,尽量在一个子表中即可。这是最有效的方法
2 读写分离。尤其是写入,放在新表中,定期进行同步。如果其中记录不断有update,最好将写的数据放在 redis中,定期同步
3 表的大文本字段分离出来,成为独立的新表。大文本字段,可以使用NOSQL数据库
4 优化架构,或优化SQL查询,避免联表查询,尽量不要用count(*), in,递归等消耗性能的语句
5 用内存缓存,或在前端读的时候,增加缓存数据库。重复读取时,直接从缓存中读取。
上面是低成本的管理方法,基本几台服务器即可搞定,但是管理起来麻烦一些。
当然,如果整体数据量特别大的话,也不在乎投入费用的话,用集群吧,用TIDB吧
linux常用命令 mysql的底层数据结构 MySQL索引的数据结构
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。