springcloud+nacos+seata项目整合
springcloud+nacos+seata项目整合
1.环境准备
1.1 nacos1.3.2和seata1.3.0准备
- nacos文档
- seata文档
- nacos1.3.2下载地址
- seata1.3.0下载地址
- seata1.3.0的config.txt地址(seata服务启动所需的配置参数)
- seata1.3.0的nacos-config.sh地址(linux下将config.txt导入到nacos配置中心的脚本)
- seata1.3.0的nacos-config.py地址(window下将config.txt导入到nacos配置中心的脚本)
- seata1.3.0的mysql.sql地址(seata服务所需的数据库文件)
1.2 nacos和seata配置和启动
将解压后的nacos重命名为nacos-server
将解压后的seata重命名为seata-server
- 启动nacos
修改nacos-server/bin/startup.cmd文件
将set MODE="cluster" 改为 set MODE="standalone",表示单机模式
window启动命令,nacos-server/bin下
双击 startup.cmd
linux启动命令,nacos-server/bin下
sh shutdown.sh
- 准备seata
下载config.txt放入seata-server目录下
下载nacos-config.py,nacos-config.sh,mysql.sql放入seata-server/conf目录下
- 创建seata数据库
在本地mysql数据库服务器中,创建以seata命名的数据库。
然后在数据库中执行下mysql.sql文件,创建seata相关的表。
- 将config.txt的配置导入nacos配置中心
修改store.mode,改为db模式
修改store.db.url和store.db.user、store.db.password为刚创建的seata数据库的配置
特别注意:(后面搭建服务需要用到)
service.vgroupMapping.my_test_tx_group=default
my_test_tx_group表示事务群组,my_test_tx_group为分组,配置项值为TC集群名
这里加入两个事物群组:
service.vgroupMapping.order-service-group=default
service.vgroupMapping.storage-service-group=default
window下,将config.txt推送到nacos的执行命令:
进入到seata-server\conf目录下执行:
python nacos-config.py 127.0.0.1:8848
(特别注意:要有python的环境,无的话自己手动添加到nacos配置中心啦(♥◠‿◠))
linux下,将config.txt推送到nacos的执行命令:
sh nacos-config.sh -h 127.0.0.1 -p 8848
-
修改seata的配置
- 因为使用的是nacos和db,可以将seata-server/conf下的file.conf文件删了
- 修改seata-server/conf下的registry.conf文件
registry { # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa type = "nacos" nacos { application = "seata-server" serverAddr = "127.0.0.1:8848" #这个端口号可以省略 # 这个group一定要配置成"DEFAULT_GROUP"否则找不到seata-server服务 group = "DEFAULT_GROUP" namespace = "" cluster = "default" username = "" password = "" } } config { # file、nacos 、apollo、zk、consul、etcd3 type = "nacos" nacos { serverAddr = "127.0.0.1" namespace = "" group = "SEATA_GROUP" username = "" password = "" } }
- 修改jvm内存配置,seata-server/bin下的.bat和.sh文件
%JAVACMD% %JAVA_OPTS% -server -Xmx512m -Xms512m -Xmn512m -Xss512k
-
启动seata服务
window启动命令,seata-server/bin下
双击 seata-server.bat
linux启动命令,seata-server/bin下
sh seata-server.sh -p 8091 -h 127.0.0.1
2.springcloud-nacos-seata准备
1.数据库准备 AT模式
在本地mysql数据库服务器中,执行一下database.sql文件创建seata-order和seata-storage数据库。
2.每个应用的resource里需要配置一个registry.conf,与seata-server里的配置相同即可
application.yml 的各个配置项,注意spring.cloud.alibaba.seata.tx-service-group 是服务组名称,
与config.txt 配置的service.vgroup_mapping.${your-service-gruop}具有对应关系
3.application.yml配置
spring:
cloud:
nacos: # Nacos 注册中心地址
discovery:
server-addr: 127.0.0.1:8848
alibaba:
seata:
tx-service-group: ${spring.application.name}-group
4.开启全局事务
在服务调用方使用@GlobalTransactional注解即可。(无侵入式的喔(♥◠‿◠))
使用seata的AT模式,也就是两阶段提交
两阶段提交协议的演变:
一阶段:业务数据和回滚日志记录在同一个本地事务中提交,释放本地锁和连接资源。
二阶段:
提交异步化,非常快速地完成。
回滚通过一阶段的回滚日志进行反向补偿。
/**
* 下单:创建订单、减库存,涉及到两个服务
*
* @param userId
* @param commodityCode
* @param count
*/
@GlobalTransactional
@Transactional(rollbackFor = Exception.class)
public void placeOrder(String userId, String commodityCode, Integer count) {
BigDecimal orderMoney = new BigDecimal(count).multiply(new BigDecimal(5));
Order order = new Order()
.setUserId(userId)
.setCommodityCode(commodityCode)
.setCount(count)
.setMoney(orderMoney);
orderDAO.insert(order);
storageFeignClient.deduct(commodityCode, count);
}
注:seata也支持TCC模式,TCC是由蚂蚁金服提供支持的,懂的都懂(♥◠‿◠)。
性能优化,TCC模式虽然有代码侵入,但是比AT模式性能要高。
5.测试
分布式事务成功,模拟正常下单、扣库存
localhost:9091/order/placeOrder/commit
分布式事务失败,模拟下单成功、扣库存失败,最终同时回滚
localhost:9091/order/placeOrder/rollback
6.原理
TC (Transaction Coordinator) - 事务协调者
维护全局和分支事务的状态,驱动全局事务提交或回滚。
TM (Transaction Manager) - 事务管理器
定义全局事务的范围:开始全局事务、提交或回滚全局事务。
RM (Resource Manager) - 资源管理器
管理分支事务处理的资源,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。
1. TM向TC申请开启一个全局事务,全局事务创建成功并生成一个全局唯一的XID。
2. XID在微服务调用链路的上下文中传播。
3. RM向TC注册分支事务,将其纳入XID对应全局事务的管辖。
4. TM向TC发起针对XID的全局提交或回滚决议。
5. TC调度XID下管辖的全部分支事务完成提交或回滚请求。
- seata一阶段加载
- seata二阶段提交
- seata二阶段回滚
Seata(AT 模式)的默认全局隔离级别是 读未提交(Read Uncommitted);
7.seata集群搭建
执行 ./seata-server.sh -p 18091 -n 1 命令,启动第一个TC Server;
-p:Seata TC Server 监听的端口;
-n:Server node,在多个 TC Server 时,需区分各自节点,用于生成不同区间的 transactionId 事务编号,以免冲突;
执行 ./seata-server.sh -p 28091 -n 2 命令,启动第二个TC Server;
8.TCC模式
一个分布式的全局事务,整体是两阶段提交(Try - [Comfirm/Cancel])的模型,在Seata中,AT模式与TCC模式事实上都是基于两阶段提交,它们的区别在于:
AT模式基于支持本地ACID事务的关系型数据库:
1、一阶段prepare行为:在本地事务中,一并提交“业务数据更新“和”相应回滚日志记录”;
2、二阶段 commit 行为:马上成功结束,自动异步批量清理回滚日志;
3、二阶段 rollback 行为:通过回滚日志,自动生成补偿操作,完成数据回滚;
而TCC 模式,需要我们人为编写代码实现提交和回滚:
1、一阶段 prepare 行为:调用自定义的 prepare 逻辑;(真正要做的事情,比如插入订单,更新库存,更新余额)
2、二阶段 commit 行为:调用自定义的 commit 逻辑;(自己写代码实现)
3、二阶段 rollback 行为:调用自定义的 rollback 逻辑;(自己写代码实现)
所以TCC模式,就是把自定义的分支事务的提交和回滚并纳入到全局事务管理中;
通俗来说,Seata的TCC模式就是手工版本的AT模式,它允许你自定义两阶段的处理逻辑而不需要依赖AT模式的undo_log回滚表;
9.测试
分布式事务成功,模拟正常下单、扣库存
localhost:9091/order/placeOrderTcc/commit
分布式事务失败,模拟下单成功、扣库存失败,最终同时回滚
localhost:9091/order/placeOrderTcc/rollback
转载自:https://juejin.cn/post/7085343744999817247