迁移大数据量表在 MySQL 中是一项需要谨慎处理的任务,直接使用常规的
INSERT INTO ... SELECT或导出导入方式容易导致锁表、耗尽内存或执行时间过长。以下是几种高效且安全的迁移方法,适用于不同场景。
分批迁移避免锁表和超时
对于千万级以上的表,建议采用分批次迁移的方式,避免长时间持有锁或占用过多资源。
通过主键或唯一索引进行分段,每次只迁移一部分数据 使用 LIMIT 和 WHERE 条件控制每次读取的数据量 示例语句:INSERT INTO target_table SELECT * FROM source_table WHERE id > 1000000 AND id
可以编写脚本循环执行,逐步推进迁移进度。每批完成后可短暂休眠,减少对线上服务的影响。
使用 pt-online-schema-change 工具
Percona Toolkit 提供的 pt-osc 可以在线修改表结构并迁移数据,过程中原表仍可读写。
自动创建新表、同步增量数据、切换表名 适用于需要变更结构的同时迁移数据的场景 命令示例:pt-online-schema-change --alter "ENGINE=InnoDB" D=dbname,t=large_table --execute
注意:确保 binlog 开启,从库延迟不能过高,否则会中断操作。
逻辑导出导入优化性能
使用 mysqldump 导出大表时需加参数优化速度和资源占用。
启用单事务模式(仅适用于 InnoDB)保证一致性:--single-transaction分块导出避免内存溢出:
--where="id >= 1" --and--where="id禁用外键检查加快导入:
--set-gtid-purged=OFF --skip-add-drop-table --compact
导入时关闭唯一性校验和自动提交可显著提升速度:
SET unique_checks=0; SET foreign_key_checks=0; SET autocommit=0;
物理备份迁移(最快方式)
若源和目标环境硬件相似,可使用 XtraBackup 进行物理热备迁移。
几乎不影响业务性能 恢复速度快,适合 TB 级别数据 步骤包括备份、传输、恢复、启动实例注意目标实例版本和配置应与源端兼容。
基本上就这些常用方法。选择哪种取决于你的停机窗口、数据一致性要求以及硬件条件。关键是控制批量大小,监控资源使用,提前测试流程。不复杂但容易忽略细节。
