博客
关于我
深入浅出MySQL(九)一看就懂的基于MYCAT的数据库分表分库案例
阅读量:349 次
发布时间:2019-03-04

本文共 3982 字,大约阅读时间需要 13 分钟。

MyCat的介绍

关于mycat的基础理论知识可以去看看以下文章

MyCat的安装使用

首先我们需要在指定路径下进行mycat的安装。

[root@idea-centos mycat]# wget http://dl.mycat.io/Mycat-server-1.4-beta-20150604171601-linux.tar.gz

下载相应的mycat压缩包后进行解压操作:

tar -zxvf Mycat-server-1.4-beta-20150604171601-linux.tar.gz

在环境变量里面添加相应的mycat路径:

vim /etc/profileexport MYCAT_HOME=/opt/mycat/mycatexport PATH=$PATH:$MYCAT_HOME/bin sh $MYCAT_HOME/bin/mycat start  设置mycat开机自动启动

然后刷新配置文件,会看到这样的界面:

在这里插入图片描述
然后我们进入到mycat里面的conf目录底下,会看到相应的xml配置文件。
在这里插入图片描述
为了能够让Mycat正常工作,还要对Mycat进行一些配置,主要配置的文件有schema.xml,server.xml,rule.xml这个三个文件,其中rule.xml主要是配置规则的,我们直接使用默认的配置文件就行了。所以只配置另外两个配置文件,为了方便以后的使用,我们备份原来的配置文件。
在这里插入图片描述

  • 两张表users和item,三个数据库db01,db02,db03(三个库在一个数据库实例上)
  • users只在db01中存储。
  • item表被分割到db02和db03中存储。

在db01上边创建users表

create database db01 if not exists db01;    use db01;     CREATE TABLE users (         id INT NOT NULL AUTO_INCREMENT,         name varchar(50) NOT NULL default '',         indate DATETIME NOT NULL default '0000-00-00 00:00:00',         PRIMARY KEY (id)     )AUTO_INCREMENT= 1 ENGINE=InnoDB DEFAULT CHARSET=utf8;

在db02和db03中分别创建item表,SQL脚本如下

create database db02 if not exists db02;use db02; CREATE TABLE item (     id INT NOT NULL AUTO_INCREMENT,     value INT NOT NULL default 0,     indate DATETIME NOT NULL default '0000-00-00 00:00:00',     PRIMARY KEY (id) )AUTO_INCREMENT= 1 ENGINE=InnoDB DEFAULT CHARSET=utf8;

创建db03

create database db03 if not exists db03;    use db03;    CREATE TABLE item (         id INT NOT NULL AUTO_INCREMENT,         value INT NOT NULL default 0,         indate DATETIME NOT NULL default '0000-00-00 00:00:00',         PRIMARY KEY (id)     )AUTO_INCREMENT= 1 ENGINE=InnoDB DEFAULT CHARSET=utf8;

这个时候我们需要进行着三个文件的配置了。

service.xml

该xml里面主要是配置mycat的登录账号

druidparser
1
8066
9066
test
TESTDB
user
TESTDB
true

Role.xml

该文件主要定义了分片的规则,这个文件里面主要有tableRule和function这两个标签。在具体使用过程中可以按照需求添加tableRule和function

tableRule标签:

id
rang-long

  • name:用户标识不同的分表规则
  • columns:指定按哪一列进行拆分
  • algorithm:该属性值为下面function标签中name的属性值,定义了连接表规则的具体的路由算法,多个表规则可以连接到同一个路由算法上

function标签:

autopartition-long.txt
  • name:标识算法的名字
  • class:指定路由算法具体的类名字
  • property:具体算法用到的一些属性

接着上边的案例我们继续配置role.xml文件

id
mod-long
2

schema.xml

该文件是MyCat中重要的配置文件之一,管理着MyCat的逻辑库、表、分片规则、DataNode以及DataSource

schema.xml 数据库的url,usename,password按实际情况填写。

select user()
  • schema标签:定义mycat实例中的逻辑库
  • table标签:定义mycat实例中的逻辑表
  • dataNode标签:定义mycat中的数据节点,也是通常说的数据分片
  • dataHost标签:作为最底层标签存在,定义了具体的真正存放数据的数据库实例,读写分离配置和心跳语句,我这只用来一台主键,所以只配了一个dataHost,如果你配了N个主机,就要配N个dataHost节点

这里附上一张超级详细的介绍图

在这里插入图片描述

然后我们通过bin文件夹下的mycat start命令启动mycat,相应的日志文件在log文件夹底下可以看到:

在这里插入图片描述

启动成功后,可以通过navicat(低版本navicat不支持)进行一个远程连接。链接成功后如下图所示

在这里插入图片描述

这个时候不妨自己试着往数据库里插入一些数据进行试验

insert into users(name,indate) values(‘kk’,now());
insert into users(name,indate) values(‘ss’,now());
insert into item(id,value,indate) values(1,100,now());
insert into item(id,value,indate) values(2,100,now());
…(插入多条item数据信息)

通过观察,会发现相应的users数据被插入到了db01库的users表里面

在这里插入图片描述

而相应的items数据会被mycat根据路由规则mod-long自动分配在db2和db3数据库里面。

在这里插入图片描述
在这里插入图片描述

再结合上篇我之前文章所讲解的主从同步配置,那么整体结构就会被成如下图所示:

在这里插入图片描述

参考文献:

感兴趣的读者也可以关注小编的个人公众号JAVA充电站,我会定期在上边分享一些有价值的java知识内容

​​​​​在这里插入图片描述

转载地址:http://iwte.baihongyu.com/

你可能感兴趣的文章
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>