批量插入用 INSERT ... VALUES 多值语法,别用循环单条插入
单条
INSERT INTO t (a,b) VALUES (1,2)执行 1000 次,和一条
INSERT INTO t (a,b) VALUES (1,2),(3,4),(5,6),...,(1999,2000)执行 1 次,性能差距可达 10 倍以上。MySQL 解析、权限校验、日志写入等开销被大幅摊薄。
实操建议:
每批控制在 1000–5000 行之间;超过 1 万行可能触发max_allowed_packet限制或锁表时间过长 显式指定列名,避免因表结构变更导致批量失败 若数据来自应用层,拼接前做空值/类型预检,否则某一行出错会导致整批回滚
大批量更新优先用 JOIN + 临时表,慎用 WHERE IN (子查询)
UPDATE t1 SET status=1 WHERE id IN (SELECT id FROM t2 WHERE flag=1)在 MySQL 5.7 及以前极易触发全表扫描或临时表膨胀,执行缓慢且容易锁表。
更稳的替代方案:
先将目标 ID 写入临时表:CREATE TEMPORARY TABLE tmp_ids AS SELECT id FROM t2 WHERE flag=1再用 JOIN 更新:
UPDATE t1 JOIN tmp_ids ON t1.id = tmp_ids.id SET t1.status = 1确保
t1.id和
tmp_ids.id都有索引,否则 JOIN 会变慢
删除大量数据时分批 + LIMIT,避免长事务和 binlog 爆满
直接
DELETE FROM logs WHERE created_at 可能锁表几十秒,同时生成巨量 binlog,主从延迟飙升,甚至填满磁盘。
安全做法是切片删除:
用主键或自增 ID 分段,例如:DELETE FROM logs WHERE id BETWEEN 100000 AND 199999 AND created_at每次删完加
SLEEP(0.1)(应用层控制),降低 I/O 压力 配合
SELECT MIN(id), MAX(id) FROM logs WHERE created_at 动态确定范围,避免漏删
LOAD DATA INFILE 是最快导入方式,但要注意权限与路径限制
比任何 INSERT 都快 5–20 倍,本质是服务端直接读文件解析,绕过网络和协议解析开销。
常见卡点:
LOAD DATA INFILE默认只允许读取 MySQL 服务所在机器的文件,
LOCAL INFILE需客户端和服务端都开启(
local_infile=ON),且部分云数据库禁用 字段分隔符、换行符必须严格匹配,否则整行跳过不报错,静默丢数据 中文乱码大概率是文件编码非
utf8mb4,建表时用
CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci,导入时加
CHARACTER SET utf8mb4实际批量操作最易被忽略的是事务边界和错误恢复——比如分批更新中途失败,没记录已处理的最大 ID,下次重跑就重复或遗漏。宁可多存一个 checkpoint 表,也别靠“凭感觉估算进度”。
