从自建TiDB增量迁移至RDS MySQL

发布日期:2025-01-03 19:02    点击次数:139
本文介绍如何使用数据传输服务DTS(Data Transmission Service),结合Kafka集群与TiDB数据库的Pump、Drainer组件,完成增量数据迁移,实现在应用不停服的情况下,平滑地完成数据库的迁移上云。创建RDS MySQL实例。背景信息由于TiDB的Binlog格式和实现机制与MySQL数据库存在一定区别,为实现增量数据迁移,同时减少对源数据库的改动,您需要部署Kafka集群以及TiDB数据库的Pump和Drainer组件。由Pump组件实时记录TiDB产生的Binlog并提供给Drainer组件,然后由Drainer组件将获取到的Binlog写入到下游的Kafka集群。DTS在执行增量数据迁移时将从Kafka集群中获取对应的数据并实时迁移至目标数据库(例如RDS MySQL实例)。注意事项DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。对于数据类型为FLOAT或DOUBLE的列,DTS会通过ROUND(COLUMN,PRECISION)来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。DTS会自动地在阿里云RDS MySQL中创建数据库,如果待迁移的数据库名称不符合阿里云RDS的定义规范,您需要在配置迁移任务之前在阿里云RDS MySQL中创建数据库。 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标实例前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标实例的数据。费用说明迁移类型链路配置费用公网流量费用结构迁移和全量数据迁移不收费。通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。增量数据迁移收费,详情请参见计费概述。迁移类型说明迁移类型说明结构迁移DTS将待迁移对象的结构定义迁移到目标库。目前DTS支持结构迁移的对象为库、表和视图。 全量数据迁移DTS将待迁移对象的存量数据全部迁移到目标库中。 增量数据迁移DTS从Kafka集群中获取TiDB产生的Binlog数据,然后将对应的增量更新实时迁移至到目标库中。增量数据迁移阶段支持下列SQL操作的同步: DML:INSERT、UPDATE、DELETEDDL:CREATE TABLE、DROP TABLE、ALTER TABLE、RENAME TABLE、TRUNCATE TABLE、CREATE VIEW、DROP VIEW、ALTER VIEW通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成数据库的迁移上云。准备工作部署Pump和Drainer组件,详情请参见TiDB Binlog集群部署。修改Drainer组件的配置文件,设置输出为Kafka,详情请参见Kafka自定义开发。选择下述方法准备Kafka集群:使用阿里云消息队列Kafka版(MQ for Apache Kafka),详情请参见阿里云消息队列Kafka版快速入门。 在自建Kafka集群或阿里云消息队列Kafka实例中创建Topic。将DTS服务器的IP地址段加入至TiDB数据库的白名单安全设置中,具体IP地址段信息请参见迁移、同步或订阅本地数据库时需添加的IP白名单。操作步骤登录数据传输控制台。在左侧导航栏,单击数据迁移。在迁移任务列表页面顶部,选择迁移的目标集群所属地域。单击页面右上角的创建迁移任务。配置迁移任务的源库及目标库信息。配置迁移任务的名称和源库信息。实例地区选择部署了TiDB数据库的ECS实例所属的地域。 数据库类型选择TiDB。端口填入TiDB数据库的服务端口,默认为4000。数据库账号填入TiDB数据库账号,需具备SHOW VIEW和待迁移对象的SELECT权限。数据库密码填入该数据库账号的密码。 是否做增量迁移根据业务需求选择,本案例选择为是。如果仅需要全量数据迁移,配置方法请参见从自建TiDB全量迁移至RDS MySQL。Kafka集群类型根据Kafka的部署位置进行选择, 本文以ECS上的自建数据库为例介绍配置流程。当自建Kafka为其他实例类型时,您还需要执行相应的准备工作,详情请参见准备工作概览。 实例地区和源库的实例地区保持一致,不可变更。ECS实例ID选择自建Kafka所属的ECS实例ID。Kafka端口自建Kafka的服务端口,默认为9092。 Kafka集群账号填入自建Kafka的用户名,如自建Kafka未开启验证可不填写。Kafka集群密码填入该用户的密码,如自建Kafka未开启验证可不填写。Topic单击右侧的获取Topic列表,然后在下拉框中选择具体的Topic。Kafka版本根据自建Kafka的版本进行选择。Kafka集群连接方式根据业务及安全需求,选择非加密连接或SCRAM-SHA-256。配置迁移任务的目标库信息。连接方式根据需求选择非加密连接或SSL安全连接。如果设置为SSL安全连接,您需要在配置迁移任务之前开启RDS实例的SSL加密功能,详情请参见设置SSL加密。 配置完成后,单击页面右下角的授权白名单并进入下一步。 选择迁移类型和迁移对象。映射名称更改如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。源、目标库无法连接重试时间默认重试12小时,您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。上述配置完成后,单击页面右下角的预检查并启动。预检查通过后,单击下一步。在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款。单击购买并启动,迁移任务正式开始。观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。

 



    Powered by Venus LTC 中文站 @2013-2022 RSS地图 HTML地图

    Copyright Powered by365站群 © 2013-2024