共计 805 个字符,预计需要花费 3 分钟才能阅读完成。
明天公司机房因为停电几台开发机的磁盘损坏了。运维同学通知我,磁盘复原比较慢,如果焦急用,能够先申请一个新的虚拟机应用。没方法又要各种装装装,这是第二次了吧,心中真是策马奔流
再暗骂一句老板抠门,也不晓得土豪的大厂是不是一人一台 ECS 用。
因为第一次故障,丢了几天代码,当初不论性能做没做完,都会先把代码 push 到仓库,仓库要是挂了公司的 IT 部门是不是都要去顶楼 jump、jump 了。
就剩下数据库了,尽管有备份,然而老是重装也挺浪费时间的,马上 618 了,看能不能去网上搜一个便宜一点的 ecs 装个 mysql,尽管不能报销,但节省下来本人的工夫摸鱼不香么。
犹豫一下筹备下单了。隔壁的 XD 冲过来说,有个收费的云数据库 MemFireDB 在搞流动,他有邀请码,能够先试试,ecs 先不慌买。
试试又不花钱,不过如同是 postgres 的,我之前是用的 mysql,得先把数据同步下来。用 kettle 来做数据同步,有点杀鸡用牛刀的感觉。须要科普的同学能够看 b 站这个视频,https://www.bilibili.com/vide…,不想看的,我截了几张图在上面
kettle 介绍
程序目录,这里丢个网盘地址 链接:https://pan.baidu.com/s/1hPxr… 提取码:d3lf
下载实现后间接解压,点击外面的 spoon.bat 启动
新建 job,而后点击右边的“主对象树”,配置“DB 连贯”
配置源数据库,我的源数据库是 Mysql 的,这里填上相应的参数
配置指标数据库,这里登陆云数据库的控制台获取数据库连贯 IP 地址,名称,将参数填写到 kettle
点击“工具 ”–“ 向导 ”–“ 复制多表向导”,抉择源数据库和指标数据库
抉择要复制的表
批改工作名
点击“Finish”实现配置
点击“Run”开始复制数据,复制实现后,能够登录云数据库控制台查看数据
kettle 性能十分丰盛,很多大数据公司都用他来做数据集成,这个迁徙只能算是杀鸡用牛刀了。