在 MySQL 中迁移并发事务数据,核心是保证数据一致性、避免锁争用,并尽可能减少对线上业务的影响。这类操作通常涉及高频率写入的表,直接迁移容易引发阻塞或数据丢失。以下是关键策略和步骤。
理解并发事务场景
并发事务意味着多个连接同时读写相同数据。迁移这类数据时,需考虑:
事务隔离级别(如 REPEATABLE READ 或 READ COMMITTED) 行锁、间隙锁或表锁的存在 主从延迟(如果使用复制) 长时间运行的事务可能持有锁选择合适的迁移方式
根据数据量和停机容忍度,可采用不同方案:
1. 在线 DDL 工具(推荐小到中等表)使用 pt-online-schema-change 或 gh-ost,它们能在不阻塞写入的情况下修改表结构并迁移数据。
创建新表,逐步拷贝旧表数据 通过触发器同步期间的变更 最后原子切换表名 2. 分批迁移 + 应用层双写(大表或跨库迁移)适用于跨实例或大数据量迁移。
应用代码同时写原表和目标表 用脚本分批次将历史数据迁移到新表 校验数据一致后,切读流量,再停旧写入 3. 利用 MySQL 复制(Replication)搭建主从结构,让从库作为目标环境。
配置新实例为原库的从库 等待数据同步完成 提升从库为主库,完成迁移处理事务一致性的注意事项
确保迁移过程中事务完整性不受影响:
避免长事务期间执行大迁移,会加剧锁竞争 设置合理的批处理大小(如每次处理 1000~5000 行),减少单次锁持有时间 在低峰期执行大批量操作 使用 START TRANSACTION WITH CONSISTENT SNAPSHOT 获取一致性视图 监控SHOW ENGINE INNODB STATUS查看锁等待情况
验证与回滚准备
迁移完成后必须验证:
比对源和目标的数据行数、关键字段摘要(如 SUM、COUNT) 检查外键约束和索引是否完整 测试查询性能是否正常 准备好回滚脚本,以防异常基本上就这些。关键是控制影响范围,保持系统可观测性,优先选择非阻塞工具。复杂场景建议先在测试环境演练。
